首页 > Windows开发 > 详细

windows 基于docker下的 spark 开发环境搭建

时间:2017-02-08 10:46:37      阅读:949      评论:0      收藏:0      [点我收藏+]

docker toolbox

https://www.docker.com/products/docker-toolbox


spark

https://hub.docker.com/r/singularities/spark/~/dockerfile/


# start-hadoop-namenode

# hadoop fs -mkdir /user

# hadoop fs -mkdir /user/root/

# hadoop fs -put ./README.md /user/root


# start-spark

# start-spark worker [master]

# spark-shell

# spark-shell --master spark://a60b8c8f9653:7077


scala> val lines = sc.textFile("file:///usr/local/spark-2.1.0/README.md")

scala> val lines = sc.textFile("hdfs:///usr/local/spark-2.1.0/README.md")

lines: org.apache.spark.rdd.RDD[String] = file:///usr/local/spark-2.1.0/README.md MapPartitionsRDD[1] at textFile at <console>:24

scala> lines.count()

res0: Long = 104

scala> lines.saveAsTextFile("hdfs:///user/root/README2.md")  // 保存到hdfs


本文出自 “某人说我技术宅” 博客,请务必保留此出处http://1992mrwang.blog.51cto.com/3265935/1895904

windows 基于docker下的 spark 开发环境搭建

原文:http://1992mrwang.blog.51cto.com/3265935/1895904

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!