首页 > 其他 > 详细

Spark分析之Job Scheduling Process

时间:2014-08-02 04:07:42      阅读:395      评论:0      收藏:0      [点我收藏+]

经过前面文章的SparkContextDAGSchedulerTaskScheduler分析,再从总体上了解Spark Job的调度流程

bubuko.com,布布扣

1、SparkContext将job的RDD DAG图提交给DAGScheduler;

2、DAGScheduler将job分解成Stage DAG,将每个Stage的Task封装成TaskSet提交给TaskScheduler;窄依赖以pipeline方式执行,效率高;

3、TaskScheduler将TaskSet中的一个个Task提交到集群中去运行;推测任务执行;遇到shuffle丢失的汇报给DAGScheduler,让DAGScheduler重新提交Stage; 

4、存储和处理block是由blockmanager来处理的(后续文章描述);

Spark分析之Job Scheduling Process,布布扣,bubuko.com

Spark分析之Job Scheduling Process

原文:http://www.cnblogs.com/luogankun/p/3886116.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!