執行start-dfs.sh后,或者執行datenode沒有啟動。很大一部分原因是因為在第一次格式化dfs后,啟動並使用了hadoop,后來又重新執行了格式化命令
這時主節點namenode的clusterID會重新生成,而從節點datanode的clusterID 保持不變導致的。
解決方法:
1.查看路徑:
配置hadoop-2.6.4的各項文件(注意:路徑不同,命令也不一樣)
cd
cd hadoop/hadoop-2.6.4
cd etc/hadoop
gedit hdfs-site.xml //修改代碼
找到如下代碼:
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/tianjiale/hadoop/dfs/name</value>
<final>true</final>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/tianjiale/hadoop/dfs/data</value>
<final>true</final>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<value> 里面的路徑需要注意
2.查看namenode和datanode的clusterID是否相同。
如果clusterID不相同,則將namenode的clusterID賦值給datanode的clusterID。
然后重新運行腳本start-dfs.sh.
最后jps查詢看看。