首页 > 其他 > 详细

【spark】关于使用idea来编辑scala程序使用spark的问题

时间:2019-10-04 09:03:24      阅读:162      评论:0      收藏:0      [点我收藏+]

如果你要使用idea的话,那么请下载spark-2.4.4-bin-hadoop2.7.tgz版本,而非其他版本,不然会在使用idea的时候,会报错缺少许多类

如:

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream
    at org.apache.spark.SparkConf.loadFromSystemProperties(SparkConf.scala:76)
    at org.apache.spark.SparkConf.<init>(SparkConf.scala:71)
    at org.apache.spark.SparkConf.<init>(SparkConf.scala:58)
    at com.hadoop.sparkPi$.main(sparkPi.scala:9)
    at com.hadoop.sparkPi.main(sparkPi.scala)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.fs.FSDataInputStream
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:335)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    ... 5 more

 

技术分享图片

 

【spark】关于使用idea来编辑scala程序使用spark的问题

原文:https://www.cnblogs.com/CQ-LQJ/p/11621255.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!