原文:启动hadoop之后,主节点启动了,而从节点的datanode并没有启动的问题

记录以下遇到的这个问题 . . 问题的起因还是在于hadoop安全模式的问题,我的安全模式之前出了问题,丢失了数据, 导致我每次启动hadoop集群,都需要自己手动关闭hadoop的安全模式, 于是在网上搜索,找到说可以先关闭集群,然后格式化namenode, 按照这样的方式做了以后,就出现了标题的问题。 解决方法其实也很简单 因为格式化的问题,导致了主节点和从节点的clusterId不一致,所以 ...

2021-04-29 13:28 0 348 推荐指数:

查看详情

Hadoop集群启动之后,datanode节点未正常启动问题

Hadoop集群启动之后,用JPS命令查看进程发现datanode节点上,只有TaskTracker进程.如下图所示 master的进程: 两个slave的节点进程 发现salve节点上竟然没有datanode进程. 查看了日志,发现有这样一句话 ...

Tue Oct 28 08:29:00 CST 2014 0 3062
hadoop集群启动DataNode节点启动失败

错误日志如下: 日志说明了datanode的clusterID 和 namenode的clusterID 不匹配。 解决方法:根据日志进入路径(/usr/java/data/dfs/data)。此时,我们应该能看见其下有/data和/name两个目录。将name/current下 ...

Wed Mar 07 22:30:00 CST 2018 0 1756
Hadoop启动之后jps没有NameNode节点

这是因为多次格式化namenode节点出现的问题 1、先运行stop-all.sh 2、删除原目录,即core-site.xml下配置的<name>hadoop.tmp.dir</name>所指向的目录,重新建立配置的空目录 格式化namdenode,hadoop ...

Wed Jul 05 18:40:00 CST 2017 0 4033
自己搭建的集群,启动hadoop时slave节点datanode没有启起来怎么办?

自己搭建的集群,启动hadoop 集群是,发现slave节点datanode没有启动,查了资料发现是因为我在启动集群前,执行了这个命令: 这个指令会重新格式化namenode的信息,这样可能会导致master节点的VERSION信息跟datanode的信息对不上,导致指令无法同步。 查看 ...

Tue Aug 18 20:42:00 CST 2020 1 1834
hadoop 集群开启之后datanode没有启动问题

执行了 start-dfs.sh 或者start-all.sh之后发现所有的datanode都没有启动。 网上查阅了一些资料发现,是因为之前多次格式化namenode导致的namenode与datanode之间的不一致。 所以需要删除之前配置的data目录(即为dfs.data.dir所创 ...

Thu Jan 25 00:57:00 CST 2018 0 4074
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM