首页 > 其他 > 详细

Spark环境准备

时间:2018-06-04 23:11:33      阅读:209      评论:0      收藏:0      [点我收藏+]

Ubuntu:

1、下载spark-2.2.1-bin-hadoop2.7.tgz,解压即可使用。

2、下载jdk-8u151-linux-x64.tar.gz,解压。

3、执行spark-2.2.1-bin-hadoop2.7/bin/pyspark,进入Spark运行环境。

4、测试:

>>> import sys
>>> import pyspark
>>> sc
<SparkContext master=local[*] appName=PySparkShell>
>>>

Spark环境准备

原文:https://www.cnblogs.com/ruanchao/p/9136336.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!