首页 > 其他 > 详细

hadoop 启动问题

时间:2015-07-26 13:54:35      阅读:215      评论:0      收藏:0      [点我收藏+]

namenode进程没有启动原因是
没有创建该目录!可以日志进行查看错误,或者配置文件的ip不对
datanode进程没有启动的原因是:dir中所指向的目录权限不对,权限755必须一模一样,如果在start-all.sh后权限恢复,则可以删除文件夹,在建立


datanode 没有启动原因是 hdfs-site.xml中,多配置两个propty
这个dfs.client.read.shortcircuit会将datanote、dir的目录权限自动恢复,并且datanode无法启动
<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>/var/lib/hadoop-hdfs/dn_socket</value>
</property>
检查hadoop-env.sh 正确配置为
export HADOOP_SECURE_DN_USER=${HADOOP_SECURE_DN_USER}


ResourceManager等服务启动不来原因可能是各个配置文件用的namenode:port,应该换成ip地址!

hadoop 启动问题

原文:http://www.cnblogs.com/huatu/p/4677468.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!