1、将hadoop压缩包解压至任意位置,路径最好不要带中文或空格
2、将Window编译后的hadoop文件放到解压出来的hadoop文件夹的bin目录下
3、在环境变量中配置HADOOP_HOME
5、在环境变量的PATH中添加 %HADOOP_HOME%\bin 和 %HADOOP_HOME%\sbin
配置完成如果无误左侧会出现DFSLocation,可以直接查看连接的hadoop上的文件
使用math里的random和一些简单的条件判断语句就可以伪造好大量数据,因为配置好了esclipse上的hadoop插件,不需要逐一上传,DFSLocation下右键文件夹,upload directory to dfs即可
注意写入数据的时候加上
BufferedWriter writer=new BufferedWriter(new OutputStreamWriter(out,"UTF-8"));
保证所有文本都是utf-8格式,不然会出现乱码,esclipse的编码也改为utf-8格式
新建项目时选择新建mapper/reducer project ,esclipse 会自动将hadoop相关jar包给我们导入
新建一个mapper
执行结果如下
Esclipse上的hadoop插件及mapreduce应用开发
原文:https://www.cnblogs.com/qilingfeng/p/12709213.html