ambari 2.6.2 安裝 hdp 2.6.5.0 遇到的問題


1.hive-client 無法安裝

一直報錯(symlink target  already exists and it is not a symlink.),hive-client 已經存在且不是符號連接,查看確實如此

 

試了很多種辦法,比如重新安裝,比如手動刪除,手動連接,都沒有奏效

DO:

     最后通過查看錯誤日志,拿到執行報錯的腳本(ambari-python-wrap /usr/bin/hdp-select set hive-client 2.6.5.0-292),刪除存在的目錄后,再執行該腳本,最后重新在前台管理界面進行重試安裝-----------成功。

 

2.無法查找到 accumulo_$ 包名,后續就無法安裝,這種情況大多是本地源沒有配置成功,或則有錯誤指向。

DO:

 a.配置本地源,包括ambari,hdp,hdp-util

    b.修改 /etc/yum.repos.d 下的 ambari.repo 和 hdp.repo 為上面設置的本地源

    c.執行 yum clean all ,yum makecache,yum repolist

在此之后再走離線安裝的程序。

 

3.spark2 thrift server 無法啟動,報錯 hdp.version is not set while running Spark under HDP

DO:

    在配置文件Advanced spark2-env 中的 content 中配置 export HDP_VERSION=2.6.5.0-292 重啟即可解決。

 

4.livy for spark2 server 無法啟動,報錯,can not mkdir /livy2-recovery

DO:

    手動創建該目錄,重啟即可解決。

 

5.ambari 服務刪除

curl -u admin:admin -H "X-Requested-By: ambari" -X DELETE http://hadoop-001:8080/api/v1/clusters/youlanad/services/PIG

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM