執行start-dfs.sh后,datenode沒有啟動,很大一部分原因是因為在第一次格式化dfs后,啟動並使用了hadoop,后來又重新執行了格式化命令(hdfs namenode -format),這時主節點namenode的clusterID會重新生成,而從節點datanode的clusterID 保持不變導致的。
解決辦法如下:
打開hdfs-site.xml找到如下節點
如上找到namenode和datanode(這個datanode是在從節點計算機中查看)的文件路徑。分別進入這兩個目錄,分別打開VERSION查看clusterID是否一致。如果不一致,將namenode中的clusterID值賦值給datanode中VERSION中的clusterID。然后在重新運行腳本start-dfs.sh.