首页 > 其他 > 详细

RDD编程练习

时间:2021-03-30 00:22:09      阅读:30      评论:0      收藏:0      [点我收藏+]

一、filter,map,flatmap练习:

1.读文本文件生成RDD lines

lines=sc.textFile("file:///usr/local/spark/mycode/rdd/word.txt")

2.将一行一行的文本分割成单词 words

words = lines.flatMap(lambda line:line.split()).collect()

3.全部转换为小写

sc.parallelize(words).pipe("tr ‘A-Z‘ ‘a-z‘").collect()

4.去掉长度小于3的单词

words.filter(lambda word:len(word)>3).collect()

5.去掉停用词

with open(‘/usr/local/spark/mycode/rdd/stopwords.txt‘)as f:
stops=f.read().split()
words.filter(lambda word:word not in stops).collect()

技术分享图片

技术分享图片

技术分享图片

技术分享图片

 

技术分享图片

二、groupByKey练习

6.练习一的生成单词键值对

words = sc.parallelize([("Hadoop",1),("is",1),("good",1),("Spark",1),("is"),("fast",1),("Spark",1),("is",1),("better",1)])

7.对单词进行分组

words1 = words.groupByKey()

8.查看分组结果

words1.foreach(print)

技术分享图片

学生科目成绩文件练习:

0.数据文件上传

lines = sc.textFile(‘file:///usr/local/spark/mycode/rdd/chapter4-data01.txt‘)

 

1.读大学计算机系的成绩数据集生成RDD

lines.take(5)

 

2.按学生汇总全部科目的成绩

groupByName=lines.map(lambda line:line.split(‘,‘)).map(lambda line:(line[0],(line[1],line[2]))).groupByKey()
groupByName.take(5)
groupByName.first()
for i in groupByName.first()[1]:
print(i)

 

3.按科目汇总学生的成绩

groupByCourse=lines.map(lambda line:line.split(‘,‘)).map(lambda line:(line[1],(line[0],line[2]))).groupByKey()
groupByCourse.first()
for i in groupByCourse.firs()[1]:
print(i)

技术分享图片

技术分享图片

技术分享图片

技术分享图片

技术分享图片
技术分享图片

 

RDD编程练习

原文:https://www.cnblogs.com/DDCWJ/p/14594375.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!