Hadoop開啟后jps顯示只有jps


之前在用Mapreduce寫代碼時,在DFS Location下的會報一個error,大體的意思就是與主機名相關的錯誤

然后我就覺得可能時Hadoop開啟時出了錯誤,然后我就重啟了Hadoop,jps查看了一下,果然出現了錯誤

可見jps命令輸入后什么都沒有,原本應該如下圖所示

后來我就在網上百度,發現出現錯誤的原因時我主機名和配置文件不一致造成的,根據Hadoop啟動時的提示,從這隨便挑選一個

例如; starting namenode, logging to /usr/local/hadoop/logs/hadoop-hadoop-namenode-ZMZ.out”,其中 ZMZ 時主機名,但其實

啟動日志信息是記錄在 /usr/local/hadoop/logs/hadoop-hadoop-namenode-ZMZ.log 中,所以應該查看這個后綴為 .log 的文件,果不其然

在對應的log中,注意此ip

然后打開host文件,輸入命令

sudo vi /etc/hosts 

發現沒有上圖中.log 文件對應的ip地址,所以要修改host文件,把目前主機名及其對應的ip地址插進去

 

 然后重啟網絡,輸入

sudo /etc/init.d/networking restart

或者

reboot

重新啟動計算機生效

然后我再次jps,發現又缺少了DataNode

於是在網上找到的解決辦法,主要是參照林子雨的教程走的

 此外,若是 DataNode 沒有啟動,可嘗試如下的方法(注意這會刪除 HDFS 中原有的所有數據,如果原有的數據很重要請不要這樣做)

# 針對 DataNode 沒法啟動的解決方法
./sbin/stop-dfs.sh   # 關閉
rm -r ./tmp     # 刪除 tmp 文件,注意這會刪除 HDFS 中原有的所有數據
./bin/hdfs namenode -format   # 重新格式化 NameNode
./sbin/start-dfs.sh  # 重啟

運行后會刪除HDFS原有數據,注意保存

 然后再次jps,發現正常運行了

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM