首页 > 其他 > 详细

Spark运行架构章节遇到的问题

时间:2018-08-16 23:26:29      阅读:198      评论:0      收藏:0      [点我收藏+]

在spark中运行./spark-shell --master YARN-client --num-executors 3 --executor-memory 1g是碰到如下的问题:

biaoshi 技术分享图片

表示资源不足,可能是内存不足或者core不足,于是就将1g改为512m,运行成功

以spark-client运行时候查看hdfs时,以http://hadoop1:50070查看,发现多了一个.sparkStaging文件夹

技术分享图片

以spark-client运行时碰到如下问题,是因为log server没有开启

 

技术分享图片

解决办法:

修改mapred-site.xml和 yarn-site.xm

yarn-site.xml添加:技术分享图片

mapred-site.xml添加:

技术分享图片

Spark运行架构章节遇到的问题

原文:https://www.cnblogs.com/hotMemo/p/9490658.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!