首页 > Windows开发 > 详细

Spark API编程动手实战-07-join操作深入实战

时间:2015-02-06 02:10:08      阅读:349      评论:0      收藏:0      [点我收藏+]

我们在hdfs的/data/join创建两个文件:

bubuko.com,布布扣

上传第一个文件名称为1.txt

内容第一列是日期,第二列uid(普通用户id)

bubuko.com,布布扣

?

上传第二个文件名称为2.txt

内容第一列是日期,第二列uid(普通用户id)

bubuko.com,布布扣

执行上传到hdfs:

bubuko.com,布布扣

hdfs命令行查询:

bubuko.com,布布扣

web控制台管理查询:

bubuko.com,布布扣

首先在命令行中设置日期格式:

bubuko.com,布布扣

然后声明两个case class:Register、Login

bubuko.com,布布扣

读取第一个文件(1.txt)并进行操作:

bubuko.com,布布扣

?

take操作:

bubuko.com,布布扣

该操作是首先读取文件的内容,然后以Tab键进行分词,然后以第二列为key,每一行的所有内容为Value构建起的Register作为Value的值;

?

读取第二个文件(2.txt)并进行操作:

bubuko.com,布布扣

take操作:

bubuko.com,布布扣

?

下面对文件执行join操作:

bubuko.com,布布扣

取出join操作的结果:

bubuko.com,布布扣

take结果:

bubuko.com,布布扣

?

或者把执行结果保存到HDFS:

bubuko.com,布布扣

到Web控制台上查看执行结果:

bubuko.com,布布扣

bubuko.com,布布扣

?

在hdfs查看一下其执行结果:

bubuko.com,布布扣

?

Spark API编程动手实战-07-join操作深入实战

原文:http://stark-summer.iteye.com/blog/2183692

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!