記錄以下遇到的這個問題2021.4.29
問題的起因還是在於hadoop安全模式的問題,我的安全模式之前出了問題,丟失了數據,
導致我每次啟動hadoop集群,都需要自己手動關閉hadoop的安全模式,
於是在網上搜索,找到說可以先關閉集群,然后格式化namenode,
按照這樣的方式做了以后,就出現了標題的問題。
解決方法其實也很簡單
因為格式化的問題,導致了主節點和從節點的clusterId不一致,所以才導致datanode沒有啟動成功
進入到你的集群的current目錄下去找VERSION這個文件
#namenode的文件路徑
/usr/local/soft/hadoop-2.7.6/tmp/dfs/name/current
#datanode的文件路徑
/usr/local/soft/hadoop-2.7.6/tmp/dfs/data/current
[root@node1 current]# ll
總用量 4
drwx------. 4 root root 54 4月 29 09:49 BP-313352401-192.168.237.110-1618028972295
drwx------. 4 root root 54 4月 29 13:16 BP-624032164-192.168.237.110-1619672787499
-rw-r--r--. 1 root root 229 4月 29 13:16 VERSION
vi VERSION
修改你的datanode的clusterId和name相同目錄下的clusterId 保持一致,即可解決這個問題
修改的clusterId如下圖所示,你的namenode下也會有一個這個,打開,並和你的從節點對比,修改為和namenode的clusterId一致即可解決問題