首页 > 系统服务 > 详细

spark-shell 执行脚本并传入参数

时间:2016-03-11 14:07:29      阅读:953      评论:0      收藏:0      [点我收藏+]

使用方法:

./spark-script.sh your_file.scala first_arg second_arg third_arg


脚本

scala_file=$1

shift 1

arguments=$@

#set +o posix  # to enable process substitution when not running on bash 

spark-shell  --master yarn --deploy-mode client          --queue default         --driver-memory 2G --executor-memory 4G         --num-executors 10         -i <(echo val args = "$arguments".split("\\s+") ; cat $scala_file)

linux shell 重定向:

Command < filename > filename2 Command命令以filename文件作为标准输入,以filename2文件作为标准输出

 

 

参考文献:

http://stackoverflow.com/questions/29928999/passing-command-line-arguments-to-spark-shell

spark-shell 执行脚本并传入参数

原文:http://www.cnblogs.com/tugeler/p/5265331.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!