首页 > 其他 > 详细

spark 配置

时间:2019-09-29 21:45:05      阅读:96      评论:0      收藏:0      [点我收藏+]

1、

mv slaves.template slaves

slaves 文件添加

hadoop.slave01
hadoop.slave02
hadoop.slave03

  

2、

cp spark-env.sh.template spark-env.sh 
spark-env.sh 文件添加
SPARK_MASTER_HOST=hadoop.slave01
SPARK_MASTER_PORT=7077
export JAVA_HOME=/usr/java/jdk1.8.0_201

  

3、JobHistoryServer

修改spark-default.conf.

spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://hadoop.slave01:9000/directory

修改spark-env.sh

export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 
-Dspark.history.retainedApplications=30 
-Dspark.history.fs.logDirectory=hdfs://hadoop.slave01:9000/directory"

  

4、在hdfs 创建

hadoop fs –mkdir /directory

  

 

spark 配置

原文:https://www.cnblogs.com/Jomini/p/11609805.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!