向hadoop導入文件,報錯
....
There are 0 datanode(s) running and no node(s) are excluded in this operation.
....
查看配置
$hadoop_home/hadoop/etc/hdfs-site.xml
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/sparkuser/myspark/hadoop/hdfs/name</value>
</property>
<property>
解決
刪除目錄下的 hdfs目錄下所有文件
1. 查看NameNode的9000端口,(core-site.xml文件中的fs.default.name節點配置)端口是否打開,因為所有的DataNode都要通過這個端口連接NameNode
2. 關閉防火牆,因為防火牆可能會阻止其他的電腦連接。使用以下命令關閉防火牆
**查看防火牆**
service iptables status
service iptable stop
chkconfig iptable off
3.在host文件中注釋掉
127.0.0.1 localhost ::1 localhost6 Master