首页 > 数据库技术 > 详细

Spark 学习之 spark-sql.sh的简单使用

时间:2015-08-16 20:59:28      阅读:281      评论:0      收藏:0      [点我收藏+]

  启动hadoop,启动Spark。

  造一份简单的测试数据customers.txt,为了方便,我把它放在了spark/bin目录:

100, John Smith, Austin, TX, 78727
200, Joe Johnson, Dallas, TX, 75201
300, Bob Jones, Houston, TX, 77028
400, Andy Davis, San Antonio, TX, 78227
500, James Williams, Austin, TX, 78727

  启动Spark-SQL:

./spark-sql.sh

  

  将数据映射成数据库表:

create table Customer(
id string,
name string,
city string,
company string,
num string
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘,‘; 

  加载数据:

load data local inpath ‘./customers.txt‘ overwrite into table Customer;

  查询数据:

select * from Customer;

  

  完!

 

Spark 学习之 spark-sql.sh的简单使用

原文:http://www.cnblogs.com/lsnl8480/p/4734836.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!