原文:Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException

因为spark默认的元数据存储在derby,derby是单session的,启动多个会报错,杀掉多余进程解决。 ...

2021-08-18 15:43 0 317 推荐指数:

查看详情

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM