1.hive-client 無法安裝
一直報錯(symlink target already exists and it is not a symlink.),hive-client 已經存在且不是符號連接,查看確實如此
試了很多種辦法,比如重新安裝,比如手動刪除,手動連接,都沒有奏效
DO:
最后通過查看錯誤日志,拿到執行報錯的腳本(ambari-python-wrap /usr/bin/hdp-select set hive-client 2.6.5.0-292),刪除存在的目錄后,再執行該腳本,最后重新在前台管理界面進行重試安裝-----------成功。
2.無法查找到 accumulo_$ 包名,后續就無法安裝,這種情況大多是本地源沒有配置成功,或則有錯誤指向。
DO:
a.配置本地源,包括ambari,hdp,hdp-util
b.修改 /etc/yum.repos.d 下的 ambari.repo 和 hdp.repo 為上面設置的本地源
c.執行 yum clean all ,yum makecache,yum repolist
在此之后再走離線安裝的程序。
3.spark2 thrift server 無法啟動,報錯 hdp.version is not set while running Spark under HDP
DO:
在配置文件Advanced spark2-env 中的 content 中配置 export HDP_VERSION=2.6.5.0-292 重啟即可解決。
4.livy for spark2 server 無法啟動,報錯,can not mkdir /livy2-recovery
DO:
手動創建該目錄,重啟即可解決。
5.ambari 服務刪除
curl -u admin:admin -H "X-Requested-By: ambari" -X DELETE http://hadoop-001:8080/api/v1/clusters/youlanad/services/PIG