首页 > 其他 > 详细

Spark Programming--Fundamental operation

时间:2015-12-30 23:39:57      阅读:191      评论:0      收藏:0      [点我收藏+]

sc.parallelize():创建RDD,建议使用xrange

getNumPartitions():获取分区数

glom():以分区为单位返回list

collect():返回list(一般是返回driver program)

例子:

技术分享

sc.textFile(path):读取文件,返回RDD

官网函数:textFile(nameminPartitions=Noneuse_unicode=True)

支持读取文件:a text file from HDFS, a local file system (available on all nodes), or any Hadoop-supported file system URI, and return it as an RDD of Strings.

例子(本地文件读取)

技术分享

 

Spark Programming--Fundamental operation

原文:http://www.cnblogs.com/loadofleaf/p/5090134.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!