hive on spark運行時 ,讀取不到hive元數據問題


部署Hive On Spark時spark讀取Hive元數據報錯:

Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)'
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create spark client.

 

解決辦法:首先查看hive元數據是否啟動 ps -ef | grep hive

如果未啟動先啟動hive元數據:

nohup hive --service metastore 2>&1 &
nohup hive --service hiveserver2 2>&1 &

如果啟動依然報錯,檢查hive-site.xml配置文件,添加如下配置:

    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://node003:9083</value>
    </property>

問題原因:出現上述的情況原因就是spark沒有檢測到hive存在,所以自己創建了默認元數據。

參考:https://www.jianshu.com/p/ba3bf6559670


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM