上海古都建筑设计集团,上海办公室装修设计公司,上海装修公司高质量的内容分享社区,上海装修公司我们不是内容生产者,我们只是上海办公室装修设计公司内容的搬运工平台

Hadoop HA部署过程中出现主备namenode或datanode挂掉的问题

guduadmin24小时前

在部署Hadoop HA的过程时,当进行到hdfs namenode -format格式化这一步骤时显示

org.apache.hadoop.hdfs.qjournal.client.QuorumException: Unable to check if JNs are ready for formatting. 1 exceptions thrown:拒绝连接

查阅多篇文章分析可知其原因是节点之间无法通信,所以无法建立连接

解决方法

1.首先查看配置文件hdfs中dfs.namenode.shared.edits.dir是否出错

2.查看zk集群是否启动,其次查看master和slave1上的journalnode是否启动

3.查阅其他博客有博主建议添加core-site.xml中的一个配置参数为:

 
   
    ipc.client.connect.max.retries 
    100 
    Indicates the number of retries a client will make to establish a server connection. 
    
   
    ipc.client.connect.retry.interval 
    10000
    Indicates the number of milliseconds a client will wait for before retrying to establish a server connection.
  

来解决问题是否出在服务已经启动但是连接超时的的原因,但是我试了这种方法还是不行。

4.最后在不懈查找下终于找到问题所在:原来还要查看zk集群和journalnode的启动状态和启动顺序:先启动zk集群,再启动journalnode

我之前就一直出现这个报错,然后突然发现我的journalnode服务就一直没有关闭,所以如果你的zookeeper没有打开,但是你的journalnode已经启动了,那你先要关闭journalnode

而我的问题在于我在启动zk之前就启动了journalnode而且master的journalnode还不能停止?!所以最后我直接重启虚拟机,按照步骤先启动zk集群,再启动journalnode,最后把namenode重启就OK了(整个过程不需要启动namenode)

运行结果:

Hadoop HA部署过程中出现主备namenode或datanode挂掉的问题,第1张

后续问题

启动集群后又发现slave1,slave2的datanode又没了......查看日志发现namenode的CID和两个datanode的CID不一样,所以问题出在format namenode次数过多,导致namenode和datanode的CID不一样

Hadoop HA部署过程中出现主备namenode或datanode挂掉的问题,第2张

恢复datanode解决方法

首先把master和slave1中/usr/local/hadoop/tmp/dfs/jn/中的文件清空(避免下次format namenode时jn文件夹不为空导致再次失败),然后将slave1和slave2中/usr/local/hadoop/tmp/dfs/data 删除,之后再格式化namenode,再start-all.sh就OK了

Jps结果:

Hadoop HA部署过程中出现主备namenode或datanode挂掉的问题,第3张

恢复备节点namenode解决方法

Jps正常之后,正常的查看了所有namenode的高可用状态,和具体master的高可用状态,然而就在切换namenode的主备状态时,发现日志报错slave1拒绝连接,再次在slave1中jps发现slave1中的namenode挂了?!查看日志发现

Hadoop HA部署过程中出现主备namenode或datanode挂掉的问题,第4张

原来是第一次格式化后,主namenode和备namenode的version版本不一样

于是按照csdn中standby节点挂掉的恢复方法进行恢复:

1、将slave1和master中/usr/local/hadoop/tmp/dfs中name文件夹中的文件和文件夹全部删除

2、stop-all.sh将集群停止后,重新将namenode格式化,之后再重启集群Jps后又发现slave1和slave2中的datanode又挂了...........啊啊啊

不用想肯定是namenode格式化次数太多导致两个datanode的CID与namenode的CID又不同了,所以重新按步骤恢复:

同时恢复备节点namenode和datanode完整步骤

1、分别将三个节点中/usr/local/hadoop/tmp/dfs路径下core-site.xml中存放的路径目录清空,如name,data,然后把jn文件夹存放的文件也删除

2、stop-all.sh停止集群

3、在master节点中进行hdfs namenode -format格式化namenode 显示successful formatted后start-all.sh启动集群

4、启动集群后进入slave1中执行hdfs namenode -bootstrapStandby把主机namenode的ID和集群ID copy给slave1中的namenode

5、重启集群,大功告成!Jps显示正常,同时也可以正常切换namenode的主备状态!

Hadoop HA部署过程中出现主备namenode或datanode挂掉的问题,第5张

真是一场酣畅淋漓的恢复啊!!

网友评论

搜索
最新文章
热门文章
热门标签