首页 > 数据库技术 > 详细

spark sql 访问hive数据时找不mysql的解决方法

时间:2016-08-10 12:31:23      阅读:260      评论:0      收藏:0      [点我收藏+]

我尝试着在classpath中加n入mysql的驱动仍不行

解决方法:在启动的时候加入参数--driver-class中加入mysql 驱动

[hadoop@master spark-1.0.1-bin-hadoop2]$ bin/spark-shell --driver-class-path lib/mysql-connector-java-5.1.30-bin.jar 

 

总结:
1.spark的版本必须编译的时候加上了hive 1.0.0预编译版没有加入hive  1.0.1是含有hive的
2.需要将hive-site.xml这个配置文件放到spark conf下面
3.需要将mysql驱动加载到classpath中

spark sql 访问hive数据时找不mysql的解决方法

原文:http://www.cnblogs.com/yaohaitao/p/5755991.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!