首页 > 其他 > 详细

(二)Spark高可用HA搭建

时间:2020-06-27 12:44:42      阅读:76      评论:0      收藏:0      [点我收藏+]

一.集群规划

  Master Slave1 Slave2 Slave3
IP 192.168.2.131 192.168.2.132 192.168.2.133 192.168.2.134
Zookeeper
Master
Worker

二.搭建Spark(HA)

2.1.说明

Spark(HA)启动前需要启动、zookeeper、hadoop、可参照zookeeperhadoop(HA)进行搭建。 Spark参照Spark(spark on yarn 模式)安装,然后改动一些配置重启Spark即可。

1.配置spark-env.sh文件中添加【其他不变】
# 设置zookeeper维护主备切换
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:2181,slave1:2181,slave2:2181 -Dspark.deploy.zookeeper.dir=/spark"
2.手动启动
# cd /usr/local/spark/sbin/  进
# ./start-master.sh  启动备机
# jps  查看
# netstat -ntulp | grep Master进程号 通过进程号来查看端口
技术分享图片

2.2.验证

登录Spark的Web页面:192.168.2.131:8081(Master)。格式:IP+查看的端口号

技术分享图片登录192.168.2.132:8082(Slave1)

技术分享图片干掉Master(alive)看看

技术分享图片

登录Web

技术分享图片

(二)Spark高可用HA搭建

原文:https://www.cnblogs.com/Agent9527/p/13197808.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!