?2 台机器做同样的事情
?更改执行权限
?chmod +x jdk-6u24-linux-i586.bin
?安装
?./jdk-6u24-linux-i586.bin
?配置环境变量
?Home路径下,打开.bashrc文件,命令如下
?vi /etc/profile
?添加JAVA环境变量
?export JAVA_HOME=/usr/local/java
?export PATH=$JAVA_HOME/bin:$PATH
source /etc/profile
第三部分:建立互信配置SSH
配置互信
每台机器上执行
$ ssh-keygen
$ ssh-copy-id -i
~/.ssh/id_rsa.pub Master.Hadoop
$ ssh-copy-id -i
~/.ssh/id_rsa.pub Salve1.Hadoop
$ ssh-copy-id -i
~/.ssh/id_rsa.pub Salve2.Hadoop
$ ssh-copy-id -i
~/.ssh/id_rsa.pub Salve3.Hadoop
第四部分:安装Hadoop并配置环境变量
安装并配置Hadoop的环境变量
?解压Hadoop,到/usr/local路径下
? tar zxvf hadoop-1.1.2.tar.gz
?建立软连接
?ln –s hadoop-1.1.2 hadoop
?配置环境变量
?vi /etc/profile
?添加如下内容
export
HADOOP_HOME=/usr/local/hadoop
export
PATH=.:$HADOOP_HOME/bin:$PATH
source /etc/profile
第五部分:配置Hadoop集群
core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
<description>hadoop
的运行临时文件的主目录</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://Master.Hadoop:9000</value>
</property>
<property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>Master.Hadoop:9001</value>
</property>
</configuration>
master与slaves
?master
文件添加内容如下
Master.Hadoop
? Slaves
文件添加内容如下
Slave1.Hadoop
Slave2.Hadoop
Slave3.Hadoop
Hadoop-env.sh
?export JAVA_HOME=/usr/local/java
第六部分:启动Hadoop集群
启动Hadoop集群
?hadoop namenode -format
?start-all.sh
?start-dfs.sh start-mapred.sh
?hadoop-deamon.sh start namenode
datanode
jobtracker
tasktracker
sencondnamenode
第七部分:测试WordCount 程序
?hadoop fs –mkdir input
?hadoop fs –put test.txt input
?hadoop jar hadoop-examples-*.jar wordcount input
output