spark 寫 hbase 數據庫,遇到Will not attempt to authenticate using SASL (unknown error)


今日在windows上用spark寫hbase的函數 saveAsHadoopDataset 寫hbase數據庫的時候,遇到Will not attempt to authenticate using SASL (unknown error) 錯誤,程序卡在那里不動了,百度后發現是我的windows上面hosts文件沒有配置。

觀察ambari的hosts顯示

然后我開始配置hosts

ip1  a.hadoop2.com
ip2  a.hadoop3.com
ip3  a.hadoop4.com

配置好后運行,尼瑪不起作用啊,還是卡在那不動。。。

 

繼續百度。。發現每個帖子基本都在說讓配hosts,絕望了。然后我突然反應過來去看一下服務器上的hosts文件到底咋配的,一看發現。。

ip1   hadoop2        a.hadoop2.com
ip2   hadoop3        a.hadoop3.com
ip3   hadoop4        a.hadoop4.com

尼瑪。。。好坑。。。原來是這么配的。ambari里面顯示的是域名,而我之前把域名配置在了主機名的位置,所以不能解決問題。

然后我把windows的ip配的和linux的一模一樣,程序就不卡在那了,成功寫入了hbase。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM