首页 > 其他 > 详细

Docker环境下部署单机伪分布式hadoop环境

时间:2021-08-04 16:01:12      阅读:28      评论:0      收藏:0      [点我收藏+]

准备工作:准备hadoop-2.7.7.tar.gz、jdk-8u191-linux-x64.tar.gz压缩包,版本可以不同,我这里用的是hadoop-2.7.7和jdk1.8。

1. 上传hadoop-2.7.7.tar.gz、jdk-8u191-linux-x64.tar.gz压缩包。

[root@master ~]# cd /home/azl
[root@master azl ]# ll

技术分享图片

2. 创建Dockerfile文件

[root@master azl ] # vim Dockerfile
#选择centos7.7.1908作为基础镜像#选择centos7.7.1908作为基础镜像
FROM centos:centos7.7.1908
#镜像维护者信息(根据自己的信息进行修改)
MAINTAINER xxx@xxx.com
#构建容器时需要运行的命令
#安装openssh-server. openssh-clents. sudo、 vim和net-tools软件包
RUN yum install -y openssh-server openssh-clients sudo vim net-tools
#生成相应的主机密钥文件
RUN ssh-keygen -t rsa -f /etc/ssh/ssh_host_rsa_key
RUN ssh-keygen -t ecdsa -f /etc/ssh/ssh_host_ecdsa_key
RUN ssh-keygen -t ed25519 -f /etc/ssh/ssh_host_ed25519_key
#将宿主机的文件拷贝至境像(ADD会自动解压),这里要切换到jdk和hadoop压缩包所在路径
ADD jdk-8u191-linux-x64.tar.gz /usr/local
ADD hadoop-2.7.7.tar.gz /usr/local
#设置环境变量
ENV CENTOS_DEFAULT_HOME /root
ENV JAVA_HOME /usr/local/jdk1.8.0_191
ENV HADOOP_HOME /usr/local/hadoop-2.7.7
ENV JRE_HOME ${JAVA_HOME}/jre
ENV CLASSPATH ${JAVA_HOME}/lib:${JRE_HOME}/lib
ENV PATH ${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH
#终端默认登录进来的工作目录
WORKDIR $CENTOS_DEFAULT_HOME
#启动sshd服务并且暴露22端口
EXPOSE 22
CMD ["/usr/sbin/sshd", "-D"]CMD ["/usr/sbin/sshd", "-D"]

3. 编译docker文件

[root@master azl ] # docker build -t xxx/hadoop:2.7.7 . #-t后面是镜像名,根据需要修改

4. 设置网络

[root@master azl ] # docker network ls

技术分享图片

[root@master azl ] # docker network inspect [容器id]

技术分享图片

5. 创建自己的网络

[root@master azl ] # docker network create --subnet=172.22.0.0/16 mynetwork(mynework网络名随便取)

技术分享图片

6. 查看镜像

[root@master azl ] # docker images

技术分享图片

7. 运行容器并进行端口映射

[root@master azl ] #docker run -d --name hadoop --hostname hadoop -P -p 50070:50070 -p 8088:8088 -p 19888:19888 --net mynetwork --ip 172.22.0.2 b3327df9f137[镜像id]

8. 查看容器

[root@master azl ] # docker ps

技术分享图片

可以看到容器已经运行起来了,下面进入容器内部

9. 进入容器

[root@master azl ] # docker exec -ti 98b98c1b083c[容器id] /bin/bash

10. 设置ssh免密登录

[root@hadoop ~ ] # cd ~/.ssh

技术分享图片

如果出现这种情况,说明root用户下没有登陆过ssh,登陆一下就好了
执行ssh localhost

技术分享图片

一路回车,再次执行cd ~/.ssh,成功进入.ssh目录
[root@hadoop ~ ] # ssh-keygen -t rsa,一路回车
生成两个文件,一个私钥,一个公钥,执行:cp id_rsa.pub authorized_keys

11. 本机无密钥登录

修改authorized_keys权限:chmod 644 authorized_keys

技术分享图片

尝试登录和退出,好了,现在可以无密钥登录了。

技术分享图片

12. 建立临时文件夹

[root@hadoop ~]# mkdir /usr/local/hadoop-2.7.7/tmp
[root@hadoop ~]# mkdir -p /usr/local/hadoop-2.7.7/dfs/namenode_data
[root@hadoop ~]# mkdir -p /usr/local/hadoop-2.7.7/dfs/datanode_data

13. 切换到hadoop-2.7.7目录下

[root@hadoop ~]# cd /usr/local/ hadoop-2.7.7
[root@hadoop hadoop-2.7.7]# java -version

技术分享图片

[root@hadoop hadoop-2.7.7]# cd etc/hadoop
[root@hadoop hadoop]# vim hadoop-env.sh
按照如下配置,保存退出。

技术分享图片

14. 修改core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml配置文件。

[root@hadoop hadoop]# vim core-site.xml

core-site.xml:

<configuration>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop:9000</value>
  </property>

  <property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/local/hadoop-2.7.7/tmp</value>
  </property>
 </configuration>
[root@hadoop hadoop]# vim hdfs-site.xml

hdfs-site.xml:

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>

  <property>
    <name>dfs.name.dir</name>
    <value>/usr/local/hadoop-2.7.7/dfs/namenode_data</value>
  </property>

  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/usr/local/hadoop-2.7.7/dfs/datanode_data</value>
  </property>

  <property>
    <name>dfs.permissions</name>
    <value>false</value>
  </property>
 </configuration>
我们这里先复制一份mapred-site.xml.template并改名为mapred-site.xml
[root@hadoop hadoop]# cp mapred-site.xml.template mapred-site.xml
vim打开
[root@hadoop hadoop]# vim mapred-site.xml

mapred-site.xml:

<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>

  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>hadoop:10020</value>
  </property>

  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>hadoop:19888</value>
  </property>
</configuration>
[root@hadoop hadoop]# vim yarn-site.xml

yarn-site.xml:

 <configuration>

  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop</value>
  </property>

  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>

  <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
  </property>

  <property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>604800</value>
  </property>
</configuration>

15. 配置所有从属节点的主机名或ip地址,由于是单机版,所以指定本机即可

[root@hadoop hadoop]# vim slaves

技术分享图片

16. 切换到根目录

[root@hadoop hadoop]# cd
[root@hadoop ~]# clear
格式化
[root@hadoop ~]# hdfs namenode -format

技术分享图片

[root@hadoop ~]# start-dfs.sh

技术分享图片

[root@hadoop ~]# start-yarn.sh

技术分享图片

[root@hadoop ~]# mr-jobhistory-daemon.sh start historyserver

技术分享图片

jps查看,现在hadoop环境已经配置好了,浏览器访问50070、19888端口可以看到hadoop界面
[root@hadoop ~]# jps

技术分享图片

此时,我们的hadoop环境就已经搭建好了,下面在浏览器访问试试。

http://ip:50070
技术分享图片
http://ip:19888
技术分享图片

Docker环境下部署单机伪分布式hadoop环境

原文:https://www.cnblogs.com/azl2674/p/15098251.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!