首页 > 其他 > 详细

Docker Hadoop 配置常见错误及解决办法

时间:2021-04-18 14:40:49      阅读:68      评论:0      收藏:0      [点我收藏+]

Docker Hadoop 配置常见错误及解决办法

 


问题1:wordcount运行卡住,hadoop 任务运行到running job就卡住了 INFO mapreduce.Job: Running job: job_....

技术分享图片

 

 

 解决如下:

1. 修改mapred-site.xml配置,配置文件在Hadoop安装目录下,etc/hadoop/mapred-site.xml

将以下配置

<property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
</property>

改成

<property>
      <name>mapreduce.job.tracker</name>
      <value>hdfs://master:8001</value>
      <final>true</final>
 </property>

master是hadoop主机master的地址,也可以是IP,例如:192.168.1.110

2. 修改完以上配置,重启下服务试试看

stop-all.sh

start-all.sh

3. 如果还是不行,则修改yarn-site.xml,新增如下配置

<property>
    <name>yarn.nodemanager.resource.memory-mb</name>
    <value>20480</value>
</property>
<property>
   <name>yarn.scheduler.minimum-allocation-mb</name>
   <value>2048</value>
</property>
<property>
    <name>yarn.nodemanager.vmem-pmem-ratio</name>
    <value>2.1</value>
</property>

4. 解决完成

 

问题2:INFO ipc.Client: Retrying connect to server: h01/172.18.0.2:8032. Already tried 0 time(s); retry policy is RetryUpToMax

技术分享图片

 

 解决如下:

1. 重启yarn

start-yarn.sh

2. 输入jps查看是否启动完成

技术分享图片

3. 解决完成

 

问题3:org.apache.hadoop.dfs.SafeModeException: Cannot delete /user/hadoop/input. Name node is in safe mode 

解决如下:

hadoop dfsadmin -safemode leave 

 

用户可以通过dfsadmin -safemode value   来操作安全模式,参数value的说明如下:
enter - 进入安全模式
leave - 强制NameNode离开安全模式
get -   返回安全模式是否开启的信息
wait - 等待,一直到安全模式结束

 

问题4:hadoop 启动错误解决办法Retrying connect to server: master/192.168.1.240:9000. Already tried 0 time(s)

解决如下:

1.关闭所有的节点:

stop-all.sh

2.namenode格式化 

 hadoop namenode -format

3.开启所有的节点:

start-all.sh

4. 解决完成

 

问题5:hadoop集群配置datanode无法启动的原因

解决如下:

1. 停止服务

stop-all.sh

 

2. 找到hadoop安装目录下配置的tmp,/etc/hadoop/core-site.xml,查看tmp目录

技术分享图片 

3. 删除/data/hadoop/tmp目录下的文件

4. 找到hadoop安装目录下配置的name、data目录,/etc/hadoop/hdfs-site.xml ,查看目录

技术分享图片

 

5. 删除/data/hadoop/hdfs/data/和/data/hadoop/hdfs/name目录下的文件

6. 启动服务

start-all.sh

 

问题6:master: ssh: connect to host master port 22: Connection timed out

技术分享图片

 

 

解决如下:

 1. 安装ssh

2. 启动服务

service ssh start

 

问题7:启动start-all.sh,发现namenode没启动,查看hadoop-root-namenode-hd_master.log,发现ERROR如下

技术分享图片

 

 原因是:Hostname不能包含_。且不要重复绑定

解决如下:

1. 重新配置打包镜像,将hosts的下划线"_"去掉,即,“hd_master”改“hdmaster”

Docker Hadoop 配置常见错误及解决办法

原文:https://www.cnblogs.com/will-xz/p/14672894.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!