首页 > 数据库技术 > 详细

SparkSQL远程访问CDH集群Hive数据表

时间:2021-08-05 10:28:05      阅读:23      评论:0      收藏:0      [点我收藏+]

创建Maven项目添加如下依赖:

<dependency>
     <groupId>org.apache.spark</groupId>
     <artifactId>spark-sql_2.11</artifactId>
    <version>2.4.0</version>
</dependency>  
<dependency>
     <groupId>org.apache.spark</groupId>
     <artifactId>spark-hive_2.11</artifactId>
    <version>2.4.0</version>
</dependency>  

使用SparkSQL访问远程CDH集群Hive数据表主要用以下几种方式:

  • 第一种:通过Hive表直接访问

第一步需要配置本地Hadoop环境变量。

技术分享图片

 

 然后就可以通过如下代码直接访问Hive数据表了(此时需要将集群的配置文件拷贝到resources文件下面:core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml):

SparkConf conf = new SparkConf();
conf.set("hive.metastore.uris","thrift://xxxxxxxx:9083");
SparkSession session = SparkSession.builder()
                                .appName("")
                                .master("local[3]")
                                .config(conf)
                                .enableHiveSupport()
                                .getOrCreate();
session.sql("").show();
  • 第二种:通过读取文件的方式访问(此时需要将集群的配置文件拷贝到resources文件下面:core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml)
SparkConf conf = new SparkConf();
conf.set("hive.metastore.uris","thrift://xxxxxxxx:9083");
SparkSession session = SparkSession.builder()
                                .appName("")
                                .master("local[3]")
                                .config(conf)
                                .enableHiveSupport()
                                .getOrCreate();
session.read().text("hdfs://nameservice1/......")
session.sql("").show();

 

SparkSQL远程访问CDH集群Hive数据表

原文:https://www.cnblogs.com/kxg916361108/p/15101643.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!