首页 > 其他 > 详细

寒假学习进度-2

时间:2020-01-16 21:20:29      阅读:85      评论:0      收藏:0      [点我收藏+]

Spark的安装和使用

安装的是spark-2.1.0-bin-without-hadoop.tgz

修改了Spark的配置文件spark-env.sh

添加了配置信息:

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

Spark的使用

在终端中首先要切换到Spark的目录

cd /usr/local/spark

之后通过输入

bin/spark-shell进入编辑模式

如果需要用到HDFS还需要启动Hadoop

读取本地文件

val textFile=sc.textFile("file:///home/hadoop/test.txt") 

在 spark-shell 中读取 HDFS 系统文件

val textFile=sc.textFile("hdfs://localhost:9000/user/hadoop/test.txt") 

寒假学习进度-2

原文:https://www.cnblogs.com/liujinxin123/p/12203161.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!