啟動hadoop再啟動spark后jps,發現master進程和worker進程同時存在,調試了半天配置文件。
測試發現,當我關閉hadoop后 worker進程還是存在,
但是,當我再關閉spark之后再jps,發現worker進程依舊存在
於是想起了在~/spark/conf/slaves 中配置的slave1 slave2 上面還有個localhost,直接刪去localhost,然后kill -s 9 worker進程。
初次測試這樣解決了error,但是不知道是不是暫時的,如若有問題依舊沒解決或者有更好解決辦法,請告訴我。