There are 0 datanode(s) running and no node(s) are excluded in this operation.


向hadoop導入文件,報錯

....

There are 0 datanode(s) running and no node(s) are excluded in this operation.

....

查看配置 

$hadoop_home/hadoop/etc/hdfs-site.xml

<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/sparkuser/myspark/hadoop/hdfs/name</value>
</property>
<property> 

解決

刪除目錄下的 hdfs目錄下所有文件

1. 查看NameNode的9000端口,(core-site.xml文件中的fs.default.name節點配置)端口是否打開,因為所有的DataNode都要通過這個端口連接NameNode

2. 關閉防火牆,因為防火牆可能會阻止其他的電腦連接。使用以下命令關閉防火牆

**查看防火牆**

service iptables status

service iptable stop

chkconfig iptable  off

3.在host文件中注釋掉

127.0.0.1 localhost ::1 localhost6 Master


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM