首页 > 其他 > 详细

【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(10)

时间:2014-11-17 21:23:03      阅读:362      评论:0      收藏:0      [点我收藏+]

在SparkWorker1 和SparkWorker2上使用jps会看到如下进程信息:

bubuko.com,布布扣

bubuko.com,布布扣

第二步:启动Spark集群

在Hadoop集群成功启动的基础上,启动Spark集群需要使用Spark的sbin目录下“start-all.sh”:

bubuko.com,布布扣

此时的SparkWorker1和SparkWorker2会出现新的进程“Worker”:

bubuko.com,布布扣

bubuko.com,布布扣

此时,我们可以进入Spark集群的Web页面,访问“http://SparkMaster:8080”: 如下所示:

bubuko.com,布布扣

从页面上我们可以看到我们有两个Worker节点及这两个节点的信息。

此时,我们进入Spark的bin目录,使用“spark-shell”控制台:

bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

 

【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(10)

原文:http://my.oschina.net/u/1791057/blog/345665

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!