hadoop 集群开启之后datanode没有启动问题


执行了 start-dfs.sh 或者start-all.sh之后发现所有的datanode都没有启动。

网上查阅了一些资料发现,是因为之前多次格式化namenode导致的namenode与datanode之间的不一致。

所以需要删除之前配置的data目录(即为dfs.data.dir所创建的文件夹),然后将temp文件夹与logs文件夹删除,

(有的人说要将slave节点上的core-site.xml文件全部替换,我这里没有尝试。)

重新格式化namenode;

启动你的start-dfs.sh 发现已经全部启动。


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM