首页 > 其他 > 详细

Spark集群搭建_YARN

时间:2017-03-03 01:14:54      阅读:288      评论:0      收藏:0      [点我收藏+]

2017年3月1日, 星期三


Spark集群搭建_YARN

前提:参考Spark集群搭建_Standalone
 
1.修改spark中conf中的spark-env.sh
技术分享
 
2.Spark on YARN--不需要启动Spark集群,因为已经在spark的配置文件中配置了hadoop的目录
技术分享
  1. 附录:
  2. 不同运行模式的命令不同
  3. 1.standalone client模式
  4. ./bin/spark-submit --class org.apache.spark.examples.SparkPi--master spark://master:7077 --executor-memory 512m --total-executor-cores 1 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100
  5. 2.standalone cluster模式
  6. ./bin/spark-submit --class org.apache.spark.examples.SparkPi--master spark://spark001:7077 --driver-memory 512m --deploy-mode cluster --supervise --executor-memory 512M --total-executor-cores 1 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100
  7. 3.on yarn client模式
  8. ./bin/spark-submit --class org.apache.spark.examples.SparkPi--master yarn-client --executor-memory 512M--num-executors 1./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100
  9. 4.on yarn cluster模式
  10. ./bin/spark-submit --class org.apache.spark.examples.SparkPi--master yarn-cluster --executor-memory 512m--num-executors 1./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100
 
web端口查看Spark的运行
技术分享
 技术分享
 技术分享
 技术分享
 

附件列表

 

Spark集群搭建_YARN

原文:http://www.cnblogs.com/haozhengfei/p/900b724dac15dbbe0a914facdca09118.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!