1.登录Linux
cd /usr/local 切换到local目录下
2.登录到Apache基金会上下载Hadoop 2.7.1
地址是:http://hadoop.apache.org/releases.html
3.解压到/usr/local下
tar -xzvf hadoop-2.7.1.tar.gz
4.进入etc配置文件夹进行Hadoop的配置信息
hadoop-env.sh 启动脚本的环境变量
core-site.xml 核心文件配置,如HDFS的路径
hdfs-site.xml HDFS的存放数据文件夹
mapred-site.xml MapReduce的配置
5.hadoop-env.sh的配置
export JAVA_HOME=/usr/java/jre1.8.0_65 //这个路径根据是你自己安装的JDK路径
6. core-site.xml的配置,指定NameNode的IP地址和端口
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs:localhost:9000</value>
</property>
</configuration>
7.hdfs-site.xml 的配置
dfs.data.dir 是hdfs存放数据的文件夹
dfs.replication 数据的副本,如果有多个,一个宕掉,其它的还可以使用
<configuration>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop-2.7.1/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
原文:http://www.cnblogs.com/fjlai/p/5049915.html