運行spark報錯Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState'


原因:
操作系統缺少 msvcr120.dll文件

下載地址:
鏈接:https://pan.baidu.com/s/1RsVgWDEtZfn22_gPWIEw4g
提取碼:9emm

放置dll:
32位\msvcr120.dll 粘貼到 C:\Windows\System32目錄中
64位\msvcr120.dll 粘貼到 C:\Windows\SysWOW64目錄中
注: 如果上述方式仍然不好使,則需要安裝C++合集
參照 https://blog.csdn.net/u013303361/article/details/88853684

 

今天清理電腦可能清理多了點C++的組件,spark local模式運行出現這個錯誤。解決要點總結就是兩個

1.設置hadoop_home(確保有%HADOOP_HOME%\bin\winutils.exe,winutils.exe的獲取方法可百度)

2.重新安裝好C++的組件,上面方式親測可用


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM