啟動hadoop之后,主節點啟動了,而從節點的datanode並沒有啟動的問題


記錄以下遇到的這個問題2021.4.29

問題的起因還是在於hadoop安全模式的問題,我的安全模式之前出了問題,丟失了數據,
導致我每次啟動hadoop集群,都需要自己手動關閉hadoop的安全模式,
於是在網上搜索,找到說可以先關閉集群,然后格式化namenode,
按照這樣的方式做了以后,就出現了標題的問題。

解決方法其實也很簡單

因為格式化的問題,導致了主節點和從節點的clusterId不一致,所以才導致datanode沒有啟動成功

進入到你的集群的current目錄下去找VERSION這個文件


#namenode的文件路徑
/usr/local/soft/hadoop-2.7.6/tmp/dfs/name/current

#datanode的文件路徑
/usr/local/soft/hadoop-2.7.6/tmp/dfs/data/current

[root@node1 current]# ll
總用量 4
drwx------. 4 root root  54 4月  29 09:49 BP-313352401-192.168.237.110-1618028972295
drwx------. 4 root root  54 4月  29 13:16 BP-624032164-192.168.237.110-1619672787499
-rw-r--r--. 1 root root 229 4月  29 13:16 VERSION

vi VERSION

修改你的datanode的clusterId和name相同目錄下的clusterId 保持一致,即可解決這個問題

修改的clusterId如下圖所示,你的namenode下也會有一個這個,打開,並和你的從節點對比,修改為和namenode的clusterId一致即可解決問題
image.png


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM