hadoop 開始時間datanode一個錯誤 Problem connecting to server


剛剛配置hadoop,namenode常開,但datanode但保留了錯誤。但不啟動:

 

2014-05-04 10:43:33,970 WARNorg.apache.hadoop.hdfs.server.datanode.DataNode: Problem connecting to server:hadoop1/192.168.10.22:9000

 

2014-05-04 10:43:55,009 INFOorg.apache.hadoop.ipc.Client: Retrying connect to server:hadoop1/192.168.10.22:9000. Already tried 0 time(s); retry policy isRetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

2014-05-04 10:43:56,012 INFOorg.apache.hadoop.ipc.Client: Retrying connect to server:hadoop1/192.168.10.22:9000. Already tried 1 time(s); retry policy isRetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

 

 

假設你已經檢查了datanode以及namenode的連通性,ip都正確,可是仍然沒法解決這個問題。那么能夠接着往下看了。

 

事實上根本原因還是無法連接到192.168.10.22:9000 對應ip的對應port。

 

查看一下namenode的port堅挺情況:

 

[hdp@hadoop1 sbin]$ netstat -an | grep 9000

tcp        0      0 127.0.0.1:9000              0.0.0.0:*                   LISTEN     

tcp        0     0 127.0.0.1:37072            127.0.0.1:9000             TIME_WAIT   

 

事實上問題就再這里。hadoop啟動的時候僅僅監聽了127.0.0.1一個port,而不是192.168.10.22:9000。這樣的情況下,也就僅僅有本機才干聯通127.0.0.1:9000了。

 

看來是ip解析的問題。看一下namenode的hosts文件(僅僅列出了重要部分):

 

127.0.0.1              hadoop1localhost.localdomainlocalhost

::1            localhost6.localdomain6 localhost6

 

事實上主要問題就在標紅的部分,僅僅要將hadoop1去掉就可以。

 

重新啟動hdfs后檢查一下port監聽情況:

 

[root@hadoop1 network-scripts]# netstat -an | grep 9000

tcp        0      0 192.168.10.22:9000          0.0.0.0:*                   LISTEN     

tcp        0      0 192.168.10.22:9000          192.168.10.24:51040         ESTABLISHED

tcp        0      0 192.168.10.22:41116         192.168.10.22:9000          TIME_WAIT  

tcp        0      0 192.168.10.22:9000          192.168.10.23:46070         ESTABLISHED

 

改動后datanode它將能夠正確連接namenode該。

 

版權聲明:本文博主原創文章,博客,未經同意不得轉載。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM