首页 > 其他 > 详细

安装部署spark standalone 模式集群

时间:2015-12-16 19:06:40      阅读:187      评论:0      收藏:0      [点我收藏+]
前提,安装了jdk1.7,scala,hadoop单节点

步骤:

spark-env.sh
加入:

技术分享
HADOOP_CONF_DIR=/root/------                        表示使用hdfs上的资源,如果需要使用本地资源,请把这一句注销

技术分享

2,slaves
技术分享

3,spark-defalts.conf
技术分享

-----------------------------------------------------------------------------------------------------------------

启动:
技术分享

cd    /root/soft/spark-1.3.1
 sbin/start-master.sh                             启动master
                
sbin/start-slaves.sh                                启动worker

技术分享


































安装部署spark standalone 模式集群

原文:http://www.cnblogs.com/xiaoxiao5ya/p/b35e6798b7d9d202d1f7128d324ecf4c.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!