hadoop啟動后jps沒有namenode(轉)


hadoop啟動后jps沒有namenode

一般都是由於兩次或兩次以上格式化NameNode造成的,有兩種方法可以解決:

1.刪除DataNode的所有資料

2.修改每個DataNode的namespaceID(位於/home/hdfs/data/current/VERSION文件中)或修改NameNode的namespaceID(位於/home/hdfs/name/current/VERSION文件中),

目的是兩者一致。

但是查看后,兩者的ID是一樣的,

於是查看/usr/local/hadoop/logs下的namenode日志文件,發現錯誤是java.io.FileNotFoundException: /home/hadoop/hdfs/name/current/VERSION (Permission denied)

 

在網上搜索后,發現是/home/hadoop/hdfs/name/current/VERSION的權限問題,於是

hadoop@master:/usr/local/hadoop/bin$ sudo chmod -R 777 /home/hadoop/hdfs

再進行格式化:hadoop@master:/usr/local/hadoop/bin$ hadoop namenode -format

啟動:hadoop@master:/usr/local/hadoop/bin$ start-all.sh

jps:hadoop@master:/usr/local/hadoop/bin$ jps
6692 JobTracker
6259 NameNode
6601 SecondaryNameNode
6810 Jps

由於看到datanode和tasktracker還沒有啟動,就用了以下命令進行啟動,但是發現確實已經啟動了。

jobtracker running as process 6692. Stop it first.
192.168.1.3: tasktracker running as process 4959. Stop it first.
192.168.1.4: tasktracker running as process 5042. Stop it first.
hadoop@master:/usr/local/hadoop/bin$ jps
6692 JobTracker
6259 NameNode
6601 SecondaryNameNode
7391 Jps
hadoop@master:/usr/local/hadoop/bin$ start-dfs.sh
Warning: $HADOOP_HOME is deprecated.

namenode running as process 6259. Stop it first.
192.168.1.3: datanode running as process 4757. Stop it first.
192.168.1.4: datanode running as process 4828. Stop it first.
192.168.1.2: secondarynamenode running as process 6601. Stop it first.

http://www.cnblogs.com/linjiqin/archive/2013/03/07/2948078.html

從百度知道里看到這么一句話,

提示都說了,不建議使用這個腳本,使用start-dfs.sh和start-mapred.sh來替代它。這說明腳本的作者或者維護人也覺得這個腳本可能有問題……
你要是有興趣也可以自己改改……


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM