首页 > 其他 > 详细

停止Hadoop集群失败

时间:2015-02-12 15:52:29      阅读:262      评论:0      收藏:0      [点我收藏+]

执行stop-dfs.sh脚本,出现以下提示:

1 Stopping namenodes on [Master]
2 Master: no namenode to stop
3 SlaveA: no datanode to stop
4 SlaveB: no datanode to stop
5 SlaveC: no datanode to stop
6 Stopping secondary namenodes [0.0.0.0]
7 0.0.0.0: no secondarynamenode to stop

原因:通过查看hadoop-daemon.sh脚本源码发现是通过Kill pid文件里面的值来停止hadoop服务,pid文件默认路径是/tmp。
查看pid文件的值发现与jps显示的进程pid不一致,导致无法Stop集群。


解决:通过修改对应的pid文件的值。可以指定${HADOOP_PID_DIR}的路径,文件名格式:hadoop-hadoop运行用户名-namenode.pid

停止Hadoop集群失败

原文:http://www.cnblogs.com/blackshirt/p/4288111.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!