运行spark报错Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState'


原因:
操作系统缺少 msvcr120.dll文件

下载地址:
链接:https://pan.baidu.com/s/1RsVgWDEtZfn22_gPWIEw4g
提取码:9emm

放置dll:
32位\msvcr120.dll 粘贴到 C:\Windows\System32目录中
64位\msvcr120.dll 粘贴到 C:\Windows\SysWOW64目录中
注: 如果上述方式仍然不好使,则需要安装C++合集
参照 https://blog.csdn.net/u013303361/article/details/88853684

 

今天清理电脑可能清理多了点C++的组件,spark local模式运行出现这个错误。解决要点总结就是两个

1.设置hadoop_home(确保有%HADOOP_HOME%\bin\winutils.exe,winutils.exe的获取方法可百度)

2.重新安装好C++的组件,上面方式亲测可用


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM