首页 > 其他 > 详细

Hadoop 配置(一)

时间:2015-12-16 00:12:58      阅读:179      评论:0      收藏:0      [点我收藏+]

1.登录Linux 

   cd /usr/local  切换到local目录下

 

2.登录到Apache基金会上下载Hadoop 2.7.1

   地址是:http://hadoop.apache.org/releases.html

 

3.解压到/usr/local下

   tar -xzvf hadoop-2.7.1.tar.gz

 

4.进入etc配置文件夹进行Hadoop的配置信息

   hadoop-env.sh       启动脚本的环境变量

   core-site.xml         核心文件配置,如HDFS的路径

   hdfs-site.xml         HDFS的存放数据文件夹

   mapred-site.xml     MapReduce的配置

 

5.hadoop-env.sh的配置

   export JAVA_HOME=/usr/java/jre1.8.0_65  //这个路径根据是你自己安装的JDK路径

 

6. core-site.xml的配置,指定NameNode的IP地址和端口

    <configuration>

    <property>

      <name>fs.default.name</name>
      <value>hdfs:localhost:9000</value>
    </property>
 </configuration>

 

7.hdfs-site.xml  的配置

  dfs.data.dir 是hdfs存放数据的文件夹

  dfs.replication 数据的副本,如果有多个,一个宕掉,其它的还可以使用

  <configuration>
    <property>
      <name>dfs.data.dir</name>
      <value>/usr/local/hadoop-2.7.1/data</value>
    </property>
    <property>
      <name>dfs.replication</name>
      <value>1</value>
    </property>
  </configuration>

 

Hadoop 配置(一)

原文:http://www.cnblogs.com/fjlai/p/5049915.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!