首页 > 其他 > 详细

spark1.1.0集群安装配置

时间:2014-11-22 23:06:19      阅读:364      评论:0      收藏:0      [点我收藏+]

和分布式文件系统和NoSQL数据库相比而言,spark集群的安装配置还算是比较简单的:

  1. 安装JDK,这个几乎不用介绍了(很多软件都需要JDK嘛)
    wget http://download.oracle.com/otn-pub/java/jdk/7u71-b14/jdk-7u71-linux-x64.tar.gz?AuthParam=1416666050_dca8969bfc01e3d8d42d04040f76ff1
    tar -zxvf jdk-7u71-linux-x64.tar.gz
  2. 安装scala,网上建议用2.9版本:
    wget http://www.scala-lang.org/files/archive/scala-2.9.1.final.tgz
    tar -zxvf scala-2.9.1.final.tgz
    ln -n scala-2.9.1.final scala
  3. 设置环境变量,vi /etc/profile
    export JAVA_HOME=/usr/local/java
    export SCALA_HOME=/usr/local/scala
  4. 安装spark:
    wget http://mirror.bit.edu.cn/apache/spark/spark-1.1.0/spark-1.1.0-bin-hadoop2.3.tgz
    tar -zxvf spark-1.1.0-bin-hadoop2.3.tgz
    ln -s spark-1.1.0-bin-hadoop2.3 spark
  5. 执行测试程序:
    cd /usr/local/spark/bin
    ./spark-shell
    输入:
    scala> val data = Array(1, 2, 3, 4, 5)
    data: Array[Int] = Array(1, 2, 3, 4, 5)


    scala> val distData = sc.parallelize(data)
    distData: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:14


    scala> distData.reduce(_+_)
  6. 可以观察4040端口:

bubuko.com,布布扣

spark1.1.0集群安装配置

原文:http://blog.csdn.net/bluejoe2000/article/details/41391407

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!