首页 > 数据库技术 > 详细

spark中用sql查询的方法

时间:2019-10-08 22:39:16      阅读:112      评论:0      收藏:0      [点我收藏+]

1,spark中用sql方式查询的方法步骤:

1)spark

res3: org.apache.spark.sql.SparkSession = org.apache.spark.sql.SparkSessio

 2)读取数据的步骤,用spark.read  再按Table键,spark会告诉你spark能读取文件的格式有哪些,来,我们试一下。

spark.read.

csv format jdbc json load option options orc parquet schema table text textFile

 不仅支持csv,jdbc,json,还支持parquet,orc,textFile,table等等格式,有些我也没试过,那我们接下来read.json试一下。

3)spark用sql的方式打开

spark.read.json("file:///opt/module/data/input/2.json")

res4: org.apache.spark.sql.DataFrame = [age: bigint, name: string]

4)spark定义df

val df = spark.read.json("file:///opt/module/data/input/2.json")
df: org.apache.spark.sql.DataFrame = [age: bigint, name: string]

5)需要建立全局临时表,关键要有表名

df.createGlobalTempView("student")

6)

spark.sql("select * from global_temp.student").show()

+---+--------+
|age| name|
+---+--------+
| 20|zhangsan|
| 20| lisi|
| 20| wangwu|
+---+--------+

 

spark中用sql查询的方法

原文:https://www.cnblogs.com/markecc121/p/11638049.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!