啟動Hadoop時,DataNode啟動后一會兒自動消失的解決方法


查看slaver1/2的logs,發現

FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000
java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/hdfs/data: namenode clusterID =

CID-af6f15aa-efdd-479b-bf55-77270058e4f7

; datanode clusterID =

CID-736d1968-8fd1-4bc4-afef-5c72354c39ce

 

從日志中可以看出,原因是因為datanode的clusterID 和 namenode的clusterID 不匹配

 (在slaver端上修改)

打開hdfs-site.xml里配置的datanode和namenode對應的目錄,分別打開current文件夾里的VERSION,可以看到clusterID項正如日志里記錄的一樣,確實不一致,修改datanode里VERSION文件的clusterID 與namenode里的一致,再重新啟動dfs(執行start-dfs.sh)再執行jps命令可以看到datanode已正常啟動。

 Hadoop配置完成!

出現該問題的原因:在第一次格式化dfs后,啟動並使用了hadoop,后來又重新執行了格式化命令(hdfs namenode -format),這時namenode的clusterID會重新生成,而datanode的clusterID 保持不變。

===================4.13更新=================

解決主機節點 txid不一致問題

把主機下namenode(name文件夾)下的current文件刪除或者移走,重新格式化

然后再改slaver1/2的 clusterID


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM