首页 > 其他 > 详细

Spark安装简介

时间:2015-05-21 22:26:28      阅读:428      评论:0      收藏:0      [点我收藏+]

1.简介

  Spark 是一个基于内存计算的开源的集群计算系统,目的是让数据分析更加快速,由加州大学伯克利分校 AMP 实验室 (Algorithms,Machines,and People Lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。spark-sql还能提供比较完整的sql的功能,多表分析关联非常方便。

2.单机最简安装

  • 从官网Spark上下载编译好的bin包(spark-1.3.0-bin-hadoop2.4.tgz)。      
  • 解压安装

        tar -zxvf spark-1.3.0-bin-hadoop2.4.tgz 

        将解压后的文件移动到/opt/spark/目录下

        /opt/spark/sbin:提供节点启停等脚本,方便日常操作

        /opt/spark/bin:提供基本的命令脚本,sql、shell等工具

        /opt/spark/lib:spark依赖的jar包

  • 启动spark服务

    cd /opt/spark/sbin

    启动master节点:./start-master.sh

        启动worker节点:./start-slaves.sh

        可以使用ie等浏览器连接master节点(假设master节点ip为192.168.20.56,则在ie地址栏中键入:192.168.20.56:8080),查看节点的执行情况

技术分享

 

  • 使用spark-shell测试spark服务

        注:如果只是使用命令/opt/spark/bin/spark-shell启动,则不会连接master/worker,而只是spark-shell单独在执行。

        /opt/spark/bin/spark-shell --master spark://suse-lyb:7077

        执行成功后,可以在master的页面上看到Running Applications多了一个名为Spark shell的进程。

        对本地文件进行简单的行数统计:

scala> val textFile = sc.textFile("/opt/spark/README.md")
scala> textFile.count()
res0: Long = 98

 

Spark安装简介

原文:http://www.cnblogs.com/linyoub/p/4520643.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!