首页 > 其他 > 详细

在idea中运行spark时出现NativeCrc32.nativeComputeChunkedSumsByteArray错误

时间:2020-04-23 01:45:32      阅读:194      评论:0      收藏:0      [点我收藏+]

java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray

解决步骤:

1.到spark官网查询spark与hadoop版本的兼容信息

2.下载对应版本的hadoop.dll和winutils.exe文件,将其放入同个文件,例如放入D:\hadoop\bin

3.添加path变量

HADOOP_HOME=hadoop\bin

4.将hadoop.dllC:\Windows\System32也放一份

5.重启IDEA

问题解决!!???

在idea中运行spark时出现NativeCrc32.nativeComputeChunkedSumsByteArray错误

原文:https://www.cnblogs.com/zqzhen/p/12757694.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!