第一次格式化dfs后,启动并使用hadoop,之后如果再次重新执行了格式化(hdfs namenode -format)
start-all.sh启动时就会遇到datanode无法启动的问题,通常情况是datanode的clusterID 和 namenode的clusterID 经过再次格式化后已经不匹配
解决方案:
修改datanode里VERSION文件的clusterID保持和namenode的VERSION中的clusterID一致即可
第一次格式化dfs后,启动并使用hadoop,之后如果再次重新执行了格式化(hdfs namenode -format)
start-all.sh启动时就会遇到datanode无法启动的问题,通常情况是datanode的clusterID 和 namenode的clusterID 经过再次格式化后已经不匹配
解决方案:
修改datanode里VERSION文件的clusterID保持和namenode的VERSION中的clusterID一致即可
本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。