首页 > 其他 > 详细

spark深入:配置文件与日志

时间:2017-06-23 17:53:26      阅读:593      评论:0      收藏:0      [点我收藏+]

spark2.1与hadoop2.7.3集成,spark on yarn模式下,需要对hadoop的配置文件yarn-site.xml增加内容,如下:

<property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
</property>
<property>
        <name>yarn.log.server.url</name>
        <value>http://node2:19888/jobhistory/logs</value>
</property>
<property>
        <name>yarn.nodemanager.pmem-check-enabled</name>
        <value>false</value>
</property>
<property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>false</value>
</property>

1、我先运行一个spark程序

bin/spark-shell --master local

2、登录Spark History server的web ui

http://node1:18080/

3、如下图,找到我刚才运行的程序

技术分享4、点击红框位置App ID,进入如下图页面

技术分享

5、点击红框位置Executor,进入下图页面

技术分享

6、右下角的stderr和stdout就是我们此行的目标了

<property>
        <name>yarn.log.server.url</name>
        <value>http://node2:19888/jobhistory/logs</value>
</property>

当你点击stderr或stdout,就会重定向到node2:19888。如下图

技术分享

spark深入:配置文件与日志

原文:http://www.cnblogs.com/sorco/p/7070922.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!