error:啟動spark后查看進程,進程中master和worker進程沖突


 

啟動hadoop再啟動spark后jps,發現master進程和worker進程同時存在,調試了半天配置文件。

測試發現,當我關閉hadoop后 worker進程還是存在,

但是,當我再關閉spark之后再jps,發現worker進程依舊存在

於是想起了在~/spark/conf/slaves 中配置的slave1 slave2 上面還有個localhost,直接刪去localhost,然后kill -s 9  worker進程。

初次測試這樣解決了error,但是不知道是不是暫時的,如若有問題依舊沒解決或者有更好解決辦法,請告訴我。 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM