首页 > 其他 > 详细

hadoop学习笔记——基础知识及安装

时间:2014-05-05 10:35:00      阅读:519      评论:0      收藏:0      [点我收藏+]

1.核心

  HDFS  分布式文件系统   

    主从结构,一个namenoe和多个datanode, 分别对应独立的物理机器

      1) NameNode是主服务器,管理文件系统的命名空间和客户端对文件的访问操作。NameNode执行文件系统的命名空间操作,比如打开关闭重命名文件或者目录等,它也负责数据块到具体DataNode的映射

      2)集群中的DataNode管理存储的数据。负责处理文件系统客户端的文件读写请求,并在NameNode的统一调度下进行数据块的创建删除和复制工作。

      3)NameNode是所有HDFS元数据的管理者,用户数据永远不会经过NameNode

 

  MapReduce  并行计算框架

    主从结构,一个JobTracker和多个TaskTracker

      1) MapReduce是由一个单独运行在主节点上的JobTacker和运行在每个集群从节点上的TaskTracker共同组成的。JobTacker负责调度构成一个作业的所有任务,这些任务分布在不同的从节点上。总结点监控他们的执行情况,

       并且重新执行之前失败的任务;从节点仅负责由主节点指派的任务

      2)  MapReduce模型原理是利用一个输入的key/value对集合来产生一个输出的key/value队集合,使用Map和Reduce函数来计算

      3)  MapReduce将大数据分解为成百上千小数据集,每个数据集分别由集群中的一个节点(一般是一台计算机)并行处理生成中间结果,后然这些中间结果又由大量的节点合并,形成最终结果

 

 

2. 基础概念

  1)hadoop集群三种模式:本地模式(单机模式),伪分布模式,全分布式模式

    单机模式:没有守护进程,所有东西运行在jvm上,使用的是本地文件系统, 没有dfs,使用开发过程中运行mapreduce程序,是使用最少的一种模式

    伪分布模式:在一台服务器上模拟集群安装环境, 即多个进程运行在一个服务器上;使用与开发和测试环境,所有 守护进程在同一台机子上

    全分布式模式:N台主机组成一个Hadoop集群,Hadoop守护进程运行在每一台主机上;分布式模式中,主节点和从节点会分开

  

  2) 网络连接方式

    host-only:宿主机(windows)与客户机(虚拟机中的客户机)单独组网,与主机当前的网络是隔离的

    bridge:宿主机和客户机网络是连接的,在同一个局域网中,可以相互访问

    NAT(network address translation): 虚拟机不占用主机所在局域网ip,通过使用主机的NAT功能访问区域网和互联网,此种方式虚拟机不用设置静态ip,只需要使用DHCP功能自动获取ip即可(绝大多数上网使用此种方式)

 

  3)SSH  使用ssh进行免密码登陆

      产生秘钥: ssh-keygen -t rsa   

      目录:~/.ssh

      公钥拷贝:cp id_rsa.pub authorized_keys

 

 

 

3. 伪分布式安装

   准备:  ----关闭防火墙(内网中,安全性问题较小)

         查看状态:service iptables status

         关闭: service iptables stop

         关闭防火墙的自动启动: chkconfig -list | grep iptables(查看)

                     chkconfig iptables off(关闭)

 

      ----修改ip  (修改后 让其生效:server network restart, 然后使用ifconfig查看)

      ----修改hostname(/etc/sysconfig/network  更改主机名;  etc/hosts  将主机名与ip地址绑定; )  

      ----设置ssh自动登录(查看上面章节) 

        ssh-keygen -t rsa  

         cp id_rsa.pub authorized_keys

        验证 ssh localhost

 

  1. 安装jdk -----配置环境变量(/etc/profile    java_home和path)----生效(source /etc/profile)---验证(java -version)

  2. 安装hadoop(tar -zxvf hadoop-1.1.2.tar.gz)---重名名(mv hadoop-1.1.2 hadoop)----配置环境变量(hadoop_home和path)----生效(source /etc/profile)

  3. 伪分布式集群:

    修改hadoop_home/conf下配置文件 hadoop-env.sh   core-site.cml  hdfs-site.xml mapred-site.xml

    

bubuko.com,布布扣
1.hadoop-env.sh
export JAVA_HOME=/usr/local/jdk/

2.core-site.xml
<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://hadoop:9000</value>【HDFS的访问路径】  此处改为自己对应的主机名如hadoop0
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
    </property>  
</configuration>


3.hdfs-site.xml
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>   【存储副本数】
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
</configuration>

4.mapred-site.xml
<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>hadoop:9001</value> 【Jobtracker的访问路径】
    </property>
</configuration>
bubuko.com,布布扣

    

    4. 启动  

      hadoop namenode -format(格式化)

      start-all.sh

      使用jps查看进程

        JobTracker、DateNode、TaskTracker、SecondaryNameNode、NameNode

      网址栏中输入 hostname:50070 查看namenode信息

          输入 hostname:50030 产看mapreduce信息

      关闭: stop-all.sh

    bubuko.com,布布扣    bubuko.com,布布扣

 

 

    

4. 分布式安装

  1.规划集群各节点的功能

    两台主机 主机1 hadoop0 namenode ;  主机2 hadoop1 datanode

 

  2. 检查如下配置(同伪分布式安装):1)防火墙是否关闭 2)ip是否设置 3)主机名是否设置  4)/etc/hosts是否配置 5)自己主机的ssh免密码登录是否设置

 

  3. 集群间ssh免密码登录配置

    在hadoop0上执行:ssh-copy-id -l ~/.ssh/id_rsa.pub hadoop1 (当本机已经产生rsa authorization时, 通过ssh-copy-id 可以将认证传送到宿端主机)

    在hadoop1上执行:ssh-copy-id -l ~/.ssh/id_rsa.pub hadoop0

    使用ssh hadoop1验证

 

  4. 配置/etc/hosts文件

   例如在hadoop0的/etc/hosts文件中添加: 192.168.1.169 hadoop0

                        192.168.1.21 hadoop1

  5. 其他节点上jdk和hadoop的安装

   在hadoop0上执行:

   scp -rq /usr/local/jdk hadoop1:/usr/local   (-r递归复制整个目录, -q不显示进度条)

   scp -rq /usr/local/hadoop hadoop1:/usr/local

   scp -rq /etc/profile hadoop1:/etc

   scp -rq /etc/hosts hadoop1:/etc

   source /etc/profile

 

  6. 配置集群

    hadoop0下 修改hadoop_home/conf/slaves(存储datanode和tasktracker节点名称),将localhost改为hadoop1

 

  7. 启动集群

    在hadoop0中执行hadoop namenode -format

             start-all.sh

             (关闭: stop-all.sh)

 

  8. jps查看进程

   hadoop0上 NameNode 、SecondarayNameNode、JobTracker进程

   hadoop1上 DataNode、TaskTracker

 

  9. 常见启动错误

   unknownHostException :设置主机名错误(查看/etc/sysconfig/network)

   BindException:ip设置错误(查看/etc/hosts)

    Name Node is in safe mode 文件系统在安全模式(分布式文件系统启动时,开始会有 安全模式,出于安全模式时文件系统中的内容不允许修改和删除,直至安全模式结束,安全模式是系统启动时检查各个datanode上数据块的有效性,可以等待一会或者关闭安全模式  hadoop dfsadmin -safemode leave)

 

    

hadoop学习笔记——基础知识及安装,布布扣,bubuko.com

hadoop学习笔记——基础知识及安装

原文:http://www.cnblogs.com/wishyouhappy/p/3706647.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!