首页 > 其他 > 详细

Spark集群搭建_Standalone

时间:2017-03-02 23:40:26      阅读:333      评论:0      收藏:0      [点我收藏+]

2017年3月1日, 星期三


Spark集群搭建_Standalone

Driver:    node1   
Worker:  node2   
Worker:  node3

1.下载安装

下载地址http://spark.apache.org/downloads.html

Standalone模式的spark集群虽然不依赖于yarn但是数据文件存在hdfs所以需要hdfs集群启动成功

这里下载包也要根据hadoop集群版本启动

比如hadoop2.5.2需要下载spark-1.4.0-bin-hadoop2.4.tgz

技术分享 

下载解压进入解压缩目录


2.配置启动

2.1.上传Spark.jar,解压,修改配置文件(改名,配置)

mv slaves.template slaves
vi slaves(里面配置从节点的主机名或者是IP)
技术分享
 
 
 
mv spark.env.sh.template spark-env.sh
vi spark-env.sh
  1. 配置spark-env.sh
  2. export SPARK_MASTER_IP=master
  3. export SPARK_MASTER_PORT=7077
  4. export SPARK_WORKER_CORES=1
  5. export SPARK_WORKER_INSTANCES=1
  6. export SPARK_WORKER_MEMORY=1G
技术分享
 

2.2配置环境变量

Spark启动的start-all.sh 和 hadoop启动的start-all.sh的冲突,所以需要修改名字,然后配置环境变量
mv start-all.sh spark-start-all.sh
mv stop-all.sh spark-stop-all.sh
 
 
vi /etc/profile       node2,node3两个从节点也要配置Spark的环境变量
技术分享
source /etc/profile
技术分享
 

2.3启动Spark集群

spark-start-all.sh          node1
技术分享
 
jps 查看启动状态
技术分享技术分享技术分享
 
 
Spark集群测试命令
standalone client模式
./spark-submit --master spark://node1:7077 --class org.apache.spark.examples.SparkPi  ../lib/spark-examples-1.6.0-hadoop2.6.0.jar 1000
技术分享
技术分享

 
 
standalone cluster模式
./spark-submit --master spark://node1:7077 --deploy-mode cluster --class org.apache.spark.examples.SparkPi  ../lib/spark-examples-1.6.0-hadoop2.6.0.jar 1000
技术分享
技术分享
 技术分享
 技术分享
 
 
 

访问node1:8080能看到Spark web界面

技术分享

 

 

 

 

附录

  1. 不同运行模式的命令不同
  2. 1.standalone client模式
  3. ./bin/spark-submit --class org.apache.spark.examples.SparkPi--master spark://master:7077 --executor-memory 512m --total-executor-cores 1 ./lib/spark-examples-1.5.2-hadoop2.4.0.jar 100
  4. 2.standalone cluster模式
  5. ./bin/spark-submit --class org.apache.spark.examples.SparkPi--master spark://spark001:7077 --driver-memory 512m --deploy-mode cluster --supervise --executor-memory 512M --total-executor-cores 1 ./lib/spark-examples-1.5.2-hadoop2.4.0.jar 100
  6. 3.on yarn client模式
  7. ./bin/spark-submit --class org.apache.spark.examples.SparkPi--master yarn-client --executor-memory 512M--num-executors 1./lib/spark-examples-1.5.2-hadoop2.4.0.jar 100
  8. 4.on yarn cluster模式
  9. ./bin/spark-submit --class org.apache.spark.examples.SparkPi--master yarn-cluster --executor-memory 512m--num-executors 1./lib/spark-examples-1.5.2-hadoop2.4.0.jar 100
  10. SparkSQLHive整合
  11. 1、只需要在master节点的conf里面创建一个hive-site.xml 然后里面的配置是:
  12. <configuration>
  13. <property>
  14. <name>hive.metastore.uris</name>
  15. <value>thrift://hadoop1:9083</value>
  16. <description>Thrift uri for the remote metastore.Used by metastore client to connect to remote metastore.</description>
  17. </property>
  18. </configuration>
  19. 2、启动hivemetastore服务
 

 

 
 
 
 
 

附件列表

 

Spark集群搭建_Standalone

原文:http://www.cnblogs.com/haozhengfei/p/f421e517457b01f6db36d934bfab5ac6.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!