本地调试spark程序出现Please set spark.sql.hive.metastore.jars 一类配置错误的问题


z这个类似问题解决好几次了。。经常忘记这里记录下

1.记得maven compile或者build一下,因为你class需要生成source里面的配置文件,你直接运行可能没生成(我出现过一次直接运行提示找不到资源问题,按理直接跑应该会自动去编译class才对)

2.修改java的版本(我用的是javajdk1.8.0_141解决的,中间试了好几个办法)

3.本地磁盘tmp文件夹看看有没提醒,也可能下面缺少对应文件夹

4.hadoop.home.dir也要配置下(我是D:\hadoop-2.7.5\hadoop-2.7.5下放了winutils.exe和一些hadoop对应版本的bin文件)

大概能想到就这些,以后有新的在补充


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM