首页 > 其他 > 详细

idea下关联spark源码环境(转)

时间:2018-05-08 14:13:04      阅读:238      评论:0      收藏:0      [点我收藏+]

0.环境:

java 1.8

scala 2.11.8

maven 3.5.0

idea 2017

spark 2.2.0

1完成以下配置

java环境变量

scala环境变量

maven setting配置文件jar包存放路径

idea下载scala plugins语言插件

idea配置maven setting及jar包存放路径

spark git :https://github.com/apache/spark.git

2编译spark源码

进入目录$spark_home

配置maven内存大小,或者在maven配置文件中配置($maven_home/bin/mvn)

exportMAVEN_OPTS="-Xmx2g -XX:ReservedCodeCacheSize=512m"

打包spark源码

./build/mvn-Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -DskipTests clean package

3 debug调试配置

1)加载所有jars

idea =>file => project structure=> libraries => add java =>$spark_home/assembly/target/scala-2.11/jars =>all project

 

技术分享图片
 

2)debug配置

idea=>run =>run config =>

 

技术分享图片
 

随着git代码更新到本地,打包代码与debug代码 不一致,把下面的 build 删除即可。

 

技术分享图片
 
技术分享图片
 

3)打断点

4)debug调试

 

技术分享图片
 
技术分享图片



作者:HxLiang
链接:https://www.jianshu.com/p/491d019eb9b6
來源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

idea下关联spark源码环境(转)

原文:https://www.cnblogs.com/moonlightml/p/9007621.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!