spark報錯:warn util.utils::service 'sparkUI' can not bind on part 4040.Attempting port 4041. 4042等錯誤
網上說的原因如下:
問題1 spark-shell里面又單獨的設置了spark的context,因為spark-shell里已經有一個context對象了,所以你新建創建的數據無法使用
問題2 主要就是數據庫的端囗都已經被占滿了,而且無法釋放? 但是我發現哪里有數據庫的事
最后解決方法如下:
lsof -i:4041
lsof -i:4042
依次查看 直接kill -9 進程ID
最后在啟動spark-shell 問題解決了