首页 > 其他 > 详细

hdfs会出现的一些问题

时间:2018-07-17 13:18:43      阅读:244      评论:0      收藏:0      [点我收藏+]

实训的第一篇博客献给坑了我的hdfs……

由于电脑的原因,突然花屏,虚拟机来不及挂起。之后发现50070端口进不去,查看jps进程发现没有namenode

技术分享图片

先用stop-all.sh命令再start还是不可以

通过查阅资料发现只能格式化namenode,有的解决方法提到由于节点默认配置在linux的临时目录tmp中,所以要修改配置文件core-site.xml

增加节点hadoop.tmp.dir

<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop/tmp</value>
</property>

其中value值的目录根据自己指定

但是当时配置的时候配过了……所以就很纠结不知道为什么

目前认为是由于没有关闭集群就直接关闭了服务器,但是还没有进行验证(不想再经历一次了,一共15天的实训都第8天了出问题我的小心脏受不了啊),之后安个虚拟机重新配一下再看吧……

之后用hadoop namenode -format命令进行格式化namenode,之后重新启动hdfs,查看进程发现……datanode起不来了

技术分享图片

 

造成可以增加文件、增加目录却不可以写文件

最后的解决办法是 删除hadoop.tmp.dir节点配置的目录下的技术分享图片data下的version,删除那个文件。重启,最后终于都能启动。

 

 技术分享图片

 

hdfs会出现的一些问题

原文:https://www.cnblogs.com/lzxw/p/9322735.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!