首页 > 其他 > 详细

Hadoop3 集群崩溃的处理方法

时间:2021-06-24 22:52:23      阅读:29      评论:0      收藏:0      [点我收藏+]

集群崩溃的处理方法

搞崩集群

hadoop102

技术分享图片

hadoop103

技术分享图片

hadoop104

技术分享图片

此时HDFS Web端的文件是不可以下载的,因为三个副本都删除了。

错误示范

最先想到的是格式化集群

[ranan@hadoop102 hadoop-3.1.3]$ hdfs namenode -format

技术分享图片

提示需要先停掉集群,正常情况下先把yarn停掉

[ranan@hadoop103 hadoop-3.1.3]$ sbin/stop-yarn.sh
[ranan@hadoop102 hadoop-3.1.3]$ sbin/stop-dfs.sh

技术分享图片

技术分享图片

启动集群,发现集群正常启动,但是NameNode没了

[ranan@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh

技术分享图片

查看目录,发现删除了DataNode中的name

技术分享图片

那就格式NameNode,之前并没有成功格式化。

[ranan@hadoop102 hadoop-3.1.3]$ hdfs namenode -format

格式化之后,发现name文件夹有了,进去查看版本号。发现两次的版本号不一样。

[ranan@hadoop102 hadoop-3.1.3]$ cd data/dfs/name/current
[ranan@hadoop102 current]$ cat VERSION

技术分享图片

技术分享图片

此时进入HDFS网页,发现进不去了

技术分享图片

查看发现namenode还是没有启动

技术分享图片

那该怎么办?

正确处理方法

1 回到hadoop的家目录

技术分享图片

2 杀死进程

[ranan@hadoop102 hadoop-3.1.3]$ sbin/stop-dfs.sh

技术分享图片

3 删除每个集群的data和logs

[ranan@hadoop102 hadoop-3.1.3]$ rm -rf data logs
[ranan@hadoop103 hadoop-3.1.3]$ rm -rf data logs
[ranan@hadoop104 hadoop-3.1.3]$ rm -rf data logs

4 格式化

[ranan@hadoop102 hadoop-3.1.3]$ hdfs namenode -format

5 启动集群

[ranan@hadoop102 hadoop-3.1.3]$ hdfs namenode -format

技术分享图片

重启成功,但是数据都被清空了

技术分享图片

总结

1.先停服务
2.清楚历史data和logs
3.格式化
4.重新启动

原因分析

技术分享图片

格式化 NameNode,会产生新的集群 id,导致 NameNode 和 DataNode 的集群 id 不一致,集群找不到已往数据。如果集群在运行过程中报错,需要重新格式化 NameNode 的话,一定要先停止 namenode 和 datanode 进程,并且要删除所有机器的 data 和 logs 目录,然后再进行格式化。

namenode,datanode都有自己的版本号。namenode和datanode是一一绑定的。
格式化以后的namenode是匹配不上没有格式化以前的datanode。

版本要能匹配的上

Hadoop3 集群崩溃的处理方法

原文:https://www.cnblogs.com/rananie/p/14924595.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!