部署Hive On Spark時spark讀取Hive元數據報錯:
Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)' FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create spark client.
解決辦法:首先查看hive元數據是否啟動 ps -ef | grep hive
如果未啟動先啟動hive元數據:
nohup hive --service metastore 2>&1 & nohup hive --service hiveserver2 2>&1 &
如果啟動依然報錯,檢查hive-site.xml配置文件,添加如下配置:
<property> <name>hive.metastore.uris</name> <value>thrift://node003:9083</value> </property>
問題原因:出現上述的情況原因就是spark沒有檢測到hive存在,所以自己創建了默認元數據。