首页 > 其他 > 详细

大数据-环境部署问题集

时间:2014-04-30 07:35:18      阅读:379      评论:0      收藏:0      [点我收藏+]

1.Hadoop2.2.0 datanode无法启动

打印:FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool 

解决方法:

参考链接:http://stackoverflow.com/questions/22316187/datanode-not-starts-correctly

通过在网上查找资料得出:每次namenode format会重新创建一个namenodeId,而tmp/dfs/data下包含了上次format下的id,namenode format清空了namenode下的数据,但是没有晴空datanode下的数据,导致启动时失败,所要做的就是每次fotmat前,清空tmp一下的所有目录,其实主要是tmp/dfs 文件夹。一定记得要清空包括namenode和datanode,有些时候清空了namenode下的tmp/dfs却忘记清空datanode下的tmp/dfs而导致datanode一直无法启动。 

2.运行脚本的时候报out of memory

解决的方法:

修改配置文件hadoop-env.sh中的export HADOOP_CLIENT_OPTS="-Xmx1024m $HADOOP_CLIENT_OPTS"这个选项,把XMX改大就可以了。

 3.

 

 

大数据-环境部署问题集,布布扣,bubuko.com

大数据-环境部署问题集

原文:http://www.cnblogs.com/qxwandy/p/3689309.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!