下载地址:https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.10.1/hadoop-2.10.1.tar.gz
下载后解压到本地文件夹。
<configuration>
<!-- 配置 HDFS 的备份文件数量, 默认数量是3, 伪分布式, 配置1就行 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///D://soft//hadoop//hadoop-2.10.1//dfs</value>
</property>
</configuration>
<configuration>
<!-- 指定 HDFS 中 NameNode 的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<!-- 指定 Hadoop 运行时产生的文件目录, 默认目录: /tmp/hadoop-${user.name} -->
<property>
<name>hadoop.tmp.dir</name>
<value>D://soft//hadoop//hadoop-2.10.1//tmp</value>
</property>
</configuration>
执行后报错--原因已经列出需要设置JAVA-HOME
配置后依旧报错。原因是路径中包含空无法通过。java安装在无空格目录下即可。或者安装在Program Files 的同学可以 配置为
C:\PROGRA~1\Java\jdk1.8.0_261。配置后问题解决。无报错信息即为通过。
执行 start-all 命令。
查看日志 发现启动失败
原因是缺少文件。
解决方案 -去github上下载对应文件放在对应目录 。https://github.com/cdarlint/winutils
重新执行start-all后。依旧报错。。。。。
还需要copy hadoop.dll至 bin目录下。如不行 在C://windows/System32 目录也添加文件 hadoop.dll。
启动后 会有四个dos窗口。至此hadoop启动成功。
http://localhost:50070/ -hdfs页面
http://localhost:8088/ -yarn任务页面
hadoop fs -mkdir /test
hadoop fs -put C:\Users\GLNC-taowenchen\Desktop\11.txt /test/11.txt
hadoop jar D:\soft\hadoop\hadoop-2.10.1\share\hadoop\mapreduce\hadoop-mapreduce-examples-2.10.1.jar wordcount /test /result
执行成功后 。在web管理页面可以看到已经输出结果文件了
可是在yarn任务管理页面无法查看到任务。
原因是以上job是以本地模式启动的(通过jobId可以区别。jobId中带了local关键字)。在yarn管理页面无法查看。
<configuration>
<!-- Reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
3.重启hadoop,在执行wordcount MapReduce Job .可以在yarn 管理页面查看任务记录。
原文:https://www.cnblogs.com/liwc/p/14031549.html