java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray
1.到spark官网查询spark与hadoop版本的兼容信息
2.下载对应版本的hadoop.dll和winutils.exe文件,将其放入同个文件,例如放入D:\hadoop\bin
中
3.添加path变量
HADOOP_HOME=hadoop\bin
4.将hadoop.dll在C:\Windows\System32
也放一份
5.重启IDEA
问题解决!!???
在idea中运行spark时出现NativeCrc32.nativeComputeChunkedSumsByteArray错误
原文:https://www.cnblogs.com/zqzhen/p/12757694.html