首页 > 数据库技术 > 详细

spark-sql用hive表格,在yarn-cluster模式下运行遇到的问题及解决办法

时间:2015-07-14 17:00:14      阅读:2406      评论:0      收藏:0      [点我收藏+]

1、编程时无法加载hive包,需要在编译好的spark(用spark-shell启动,用spark-sql能够直接访问hive表)的lib目录下,考出assembly包,为其创建一个maven的repository,然后添加到dependency里面。最笨的创建repository的办法就是直接创建相应路径,然后把spark-core里面的.pom修改一下target里面的名称,直接copy。

2、用yarn-cluster提交时,遇到:spark sql java.lang.RuntimeException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive这样的问题,这是程序没有将$SPARK_HOME/lib里面的datanucleus包导入,在--jars里面加入即可:$(echo $SPARK_HOME/lib/*.jar| tr ‘ ‘ ‘\n‘ | grep datanucleus | tr ‘\n‘ ‘,‘)

3、载入jar包后,发现遇到: spark metastore.RetryingHMSHandler: NoSuchObjectException错误,这是spark没有找到hive-site.xml文件,在--files里面加入即可。

spark-sql用hive表格,在yarn-cluster模式下运行遇到的问题及解决办法

原文:http://www.cnblogs.com/fbiswt/p/4645512.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!