本地調試spark程序出現Please set spark.sql.hive.metastore.jars 一類配置錯誤的問題


z這個類似問題解決好幾次了。。經常忘記這里記錄下

1.記得maven compile或者build一下,因為你class需要生成source里面的配置文件,你直接運行可能沒生成(我出現過一次直接運行提示找不到資源問題,按理直接跑應該會自動去編譯class才對)

2.修改java的版本(我用的是javajdk1.8.0_141解決的,中間試了好幾個辦法)

3.本地磁盤tmp文件夾看看有沒提醒,也可能下面缺少對應文件夾

4.hadoop.home.dir也要配置下(我是D:\hadoop-2.7.5\hadoop-2.7.5下放了winutils.exe和一些hadoop對應版本的bin文件)

大概能想到就這些,以后有新的在補充


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM