今日在windows上用spark寫hbase的函數 saveAsHadoopDataset 寫hbase數據庫的時候,遇到Will not attempt to authenticate using SASL (unknown error) 錯誤,程序卡在那里不動了,百度后發現是我的windows上面hosts文件沒有配置。
觀察ambari的hosts顯示
然后我開始配置hosts
ip1 a.hadoop2.com ip2 a.hadoop3.com ip3 a.hadoop4.com
配置好后運行,尼瑪不起作用啊,還是卡在那不動。。。
繼續百度。。發現每個帖子基本都在說讓配hosts,絕望了。然后我突然反應過來去看一下服務器上的hosts文件到底咋配的,一看發現。。
ip1 hadoop2 a.hadoop2.com
ip2 hadoop3 a.hadoop3.com
ip3 hadoop4 a.hadoop4.com
尼瑪。。。好坑。。。原來是這么配的。ambari里面顯示的是域名,而我之前把域名配置在了主機名的位置,所以不能解決問題。
然后我把windows的ip配的和linux的一模一樣,程序就不卡在那了,成功寫入了hbase。