网站建设资讯

NEWS

网站建设资讯

三、zookeeper--实现NN和RM的HA

一、hdfs namenode HA

1、概述

​ 在hadoop1.0的时候,hdfs集群中namenode存在单点故障的问题,当namenode不可用的时候,就会导致整个hdfs集群服务不可用。另外如果需要临时对namenode进行设计或者其他操作时,停掉namenode之后,hdfs集群也无法使用了。
​ 通过HA的方式,可以一定程度上解决单点故障问题。

创新互联主营丹阳网站建设的网络公司,主营网站建设方案,成都app开发,丹阳h5微信小程序开发搭建,丹阳网站营销推广欢迎丹阳等地区企业咨询

2、namenode HA工作要点

1)元数据管理方式需要改变:
内存中各自保存一份元数据;
Edits日志只有Active状态的namenode节点可以做写操作;
两个namenode都可以读取edits;
共享的edits放在一个共享存储中管理(qjournal和NFS两个主流实现);

2)需要一个状态管理功能模块
hadoop实现了一个zkfailover,常驻在每一个namenode所在的节点,每一个zkfailover负责监控自己所在namenode节点,利用zk进行状态标识,当需要进行状态切换时,由zkfailover来负责切换,切换时需要防止brain split现象的发生。

3)必须保证两个NameNode之间能够ssh无密码登录。用于后面的隔离。通过ssh方式到另外的namenode节点上,将namenode进程彻底杀死。防止脑裂。

4)隔离(Fence),即同一时刻仅仅有一个NameNode对外提供服务

3、namenode HA自动故障转移工作机制

namenode HA自动故障转移除了要两个namenode之外,还需要增加两个组件:zookeeper集群服务,ZKFailoverController(ZKFC)。

(1)ZKFC

它是zookeeper的一个客户端,同时负责监控namenode的状态。每个namenode上都运行一个ZKFC进程。
1)健康监测:
ZKFC使用一个健康检查命令定期地ping与之在相同主机的NameNode,只要该NameNode及时地回复健康状态,ZKFC认为该节点是健康的。如果该节点崩溃,冻结或进入不健康状态,健康监测器标识该节点为非健康的。
2)ZooKeeper会话管理:
当本地NameNode是健康的,ZKFC保持一个在ZooKeeper中打开的会话。如果本地NameNode处于active状态,ZKFC也保持一个特殊的znode锁,该锁使用了ZooKeeper对短暂节点(也就是临时节点)的支持,如果会话终止,锁节点将自动删除。

ZKFC会在zookeeper上创建一个  /hadoop-ha/namenodeHA集群名称/ 这样一个节点,
该节点上有两个子节点:
ActiveBreadCrumb:
持久节点,节点的值中记录了  HA集群名称 active节点别名 active节点地址
主要用于其他想访问namenode服务的client用于获取active状态的namenode地址,所以必须得是持久节点。

ActiveStandbyElectorLock:
临时节点,节点的值中记录了  HA集群名称 active节点别名 active节点地址。
起到互斥锁的作用,只有获取到该节点的使用权,才能修改上面ActiveBreadCrumb节点的值。
因为是临时节点,所以当active namenode和zk保持连接,该节点就会一直存在,而standby的namenode也是和zk保持连接,但是发现该临时节点已存在,就明白已经有人占用了,所以它不会做任何事。当上面的active namenode发生问题,不正常了,ZKFC就会断开和zk的连接,那么临时节点就会消失。此时standby namenode就会重新创建该临时节点,相当于获得了锁,可以修改ActiveBreadCrumb的值。此时它自己也就顺理成章变成新的active namenode。

3)基于ZooKeeper的选择:
如果本地NameNode是健康的,且ZKFC发现没有其它的节点当前持有znode锁,它将为自己获取该锁。如果成功,则它已经赢得了选择,并负责运行故障转移进程以使它的本地NameNode为active。

4、HA配置

(1)环境规划

主机角色
bigdata121/192.168.50.121 namenode,journalnode,datanode,zk
bigdata122/192.168.50.122 namenode,journalnode,zk
bigdata123/192.168.50.123 zk
软件版本 hadoop2.8.4,zookeeper3.4.10,centos7.2

jdk,zookeeper部署不重复讲了,看之前的文章吧

基础环境配置:
每个机器添加主机名解析/etc/hosts
每台主机对自己,以及对另外两台主机都要配置ssh免秘钥登录
关闭防火墙以及selinux

(2)部署

hadoop的完整部署可以看之前的文章,这里着重讲namenode HA的配置。
修改配置文件:
core-site.xml


        
        
                fs.defaultFS
                hdfs://mycluster
        

        
        
                hadoop.tmp.dir
                /opt/modules/HA/hadoop-2.8.4/data/ha_data
        

        
        
                ha.zookeeper.quorum
            bigdata121:2181,bigdata122:2181,bigdata123:2181
        

hdfs-site.xml


        
        
                dfs.nameservices
                mycluster
        

        
        
                dfs.ha.namenodes.mycluster
                nn1,nn2
        

        
        
                dfs.namenode.rpc-address.mycluster.nn1
                bigdata121:9000
        

        
        
                dfs.namenode.rpc-address.mycluster.nn2
                bigdata122:9000
        

        
        
                dfs.namenode.http-address.mycluster.nn1
                bigdata121:50070
        

        
        
                dfs.namenode.http-address.mycluster.nn2
                bigdata122:50070
        

        
        
                dfs.namenode.shared.edits.dir
        qjournal://bigdata121:8485;bigdata122:8485/mycluster
        

        
        
                dfs.ha.fencing.methods
                sshfence
        

        
        
                dfs.ha.fencing.ssh.private-key-files
                /root/.ssh/id_rsa
        

        
        
                dfs.journalnode.edits.dir
                /opt/modules/HA/hadoop-2.8.4/data/jn
        

        
        
                dfs.permissions.enable
                false
        

        
        
                dfs.client.failover.proxy.provider.mycluster
                org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
        

        
        
                dfs.ha.automatic-failover.enabled
                true
        

配置文件同步到各个节点中。使用scp或者rsync随意吧。

(3)启动集群

第一次启动时:

cd /opt/modules/HA/hadoop-2.8.4

1)各个journalnode节点上启动journalnode服务
sbin/hadoop-daemon.sh start journalnode

2)nn1上格式化namenode,并启动
bin/hdfs namenode -format
sbin/hadoop-daemon.sh start namenode

3)nn2上通过启动的journalnode从nn1上同步namenode的数据到本地namenode
bin/hdfs namenode -bootstrapStandby

4)启动nn2
sbin/hadoop-daemon.sh start namenode

5)nn1上启动所有datanode
sbin/hadoop-daemons.sh start datanode

6)两台namenode上查看namenode状态
bin/hdfs haadmin -getServiceState nn1
bin/hdfs haadmin -getServiceState nn2
正常情况一个是active,一个是standby

7)手动转换成active和standby
bin/hdfs haadmin -transitionToActive namenode名称
bin/hdfs haadmin -transitionToStandby namenode名称
注意,如果需要手动切换,那么需要将hdfs-site.xml中的自动切换关掉。否则报错。
或者使用 --forceactive 进行强制转换。

启动完成后,可以手动将active的namenode关掉,可以看到刚刚standby的namenode会自动转为 active。而刚才关掉的namenode重新上线的话,就会变为standby。

第二次启动:
直接start-dfs.sh即可

(4)为什么没有SNN?

当我们启动完整个namenode的HA集群之后,我们发现并没有SNN的身影,天真的我以为以为还需要手动启动,就手动启动一发了,结果报错了。
查看SNN的启动日志,可以发现有这么一个报异常信息

org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode: Failed to start secondary namenode
java.io.IOException: Cannot use SecondaryNameNode in an HA cluster. The Standby Namenode will perform checkpointing.
        at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.(SecondaryNameNode.java:189)
        at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:690)

意思很明显了,就是说SNN的职责由standby的namenode来完成了,HA状态下不需要SNN的存在了。这样其实也很合理,可以说是充分利用了standby的namenode,免得它闲在那里。

二、yarn resourceManager HA

1、工作机制

其实和上面的namenode的ha类似,也是借助ZKFC进行监控RM。
会在 zk上创建一个 /yarn-leader-election/yarn集群名称 的节点,
下面有两个子节点:ActiveBreadCrumb, ActiveStandbyElectorLock
作用类似,不重复讲。工作机制基本类似的

2、HA配置

(1)规划

主机角色
bigdata121 zk, rm
bigdata122 zk, rm
bigdata123 zk

(2)配置文件

yarn-site.xml




        
        
                yarn.nodemanager.aux-services
                mapreduce_shuffle
        

        
        
                yarn.log-aggregation-enable
                true
        

        
        
                yarn.log-aggregation.retain-seconds
                604800
        

    
    
        yarn.resourcemanager.ha.enabled
        true
    

    
    
        yarn.resourcemanager.cluster-id
        cluster-yarn1
    

    
    
        yarn.resourcemanager.ha.rm-ids
        rm1,rm2
    

    
    
        yarn.resourcemanager.hostname.rm1
        bigdata121
    

    
        yarn.resourcemanager.hostname.rm2
        bigdata122
    

    
    
        yarn.resourcemanager.zk-address
        bigdata121:2181,bigdata122:2181,bigdata123:2181
    

    
    
         yarn.resourcemanager.recovery.enabled
        true
    

    
    
        yarn.resourcemanager.store.class
        org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore
    

配置文件同步到其他节点。

(3)启动集群

bigdata121:启动yarn
sbin/start-yarn.sh

bigdata122:启动rm
sbin/yarn-daemon.sh start resourcemanager

查看服务状态:
bin/yarn rmadmin -getServiceState rm1
bin/yarn rmadmin -getServiceState rm2

测试方式和namenode类似,这里不重复


网页名称:三、zookeeper--实现NN和RM的HA
链接地址:http://cdweb.net/article/gpsihc.html