首页 > 编程语言 > 详细

Spark API编程动手实战-03-以在Spark 1.2版本实现对Job输出结果进行排序

时间:2015-01-30 02:07:10      阅读:356      评论:0      收藏:0      [点我收藏+]

从前一篇文章中的wordcount的输出结果可以看出来结果是未经排序的,如何对spark的输出结果进行排序呢?

bubuko.com,布布扣

先对reduceByKey的结果进行key,value位置置换(数字,字符),然后再进行数字排序,再将key,value位置置换后就是排序后的结果了,最终将结果存储到HDFS中

bubuko.com,布布扣

bubuko.com,布布扣

?

bubuko.com,布布扣

?

bubuko.com,布布扣

?

可以发现我们成功对输出结果进行排序!

Spark API编程动手实战-03-以在Spark 1.2版本实现对Job输出结果进行排序

原文:http://stark-summer.iteye.com/blog/2181214

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!