不多說,直接上干貨!
1、 HA集群的主節點之間的雙standby的解決辦法:
全網最詳細的Hadoop HA集群啟動后,兩個namenode都是standby的解決辦法(圖文詳解)
2、 HA集群的主節點之間的雙active的解決辦法:
全網最詳細的Hadoop HA集群啟動后,兩個namenode都是active的解決辦法(圖文詳解)
3、 HA集群的主節點active和standby之間切換的解決辦法:
如果,你是出現
那是因為,你的是被zkfc自動選舉決定了。
則,乖乖地
執行bin/hdfs haadmin -transitionToActive nn1時出現,Automatic failover is enabled for NameNode at bigdata-pro02.kfk.com/192.168.80.152:8020 Refusing to manually manage HA state的解決辦法(圖文詳解)
當然,你可以強制使用Kill命令。
比如,之前是,
bigdata-pro02.kfk.com是active, bigdata-pro01.kfk.com是standby。
則:
[kfk@bigdata-pro02 hadoop-2.6.0]$ jps 9877 DFSZKFailoverController 10275 QuorumPeerMain 10428 DataNode 10521 JournalNode 10351 NameNode 10678 NodeManager 10915 Jps [kfk@bigdata-pro02 hadoop-2.6.0]$ kill -9 10351 [kfk@bigdata-pro02 hadoop-2.6.0]$ jps 9877 DFSZKFailoverController 10275 QuorumPeerMain 10428 DataNode 10932 Jps 10521 JournalNode 10678 NodeManager [kfk@bigdata-pro02 hadoop-2.6.0]$
變為:
接着,執行以下命令,單獨啟動bigdata-pro02.kfk.com的namenode。
[kfk@bigdata-pro02 hadoop-2.6.0]$ jps 10971 Jps 9877 DFSZKFailoverController 10275 QuorumPeerMain 10428 DataNode 10521 JournalNode 10678 NodeManager [kfk@bigdata-pro02 hadoop-2.6.0]$ sbin/hadoop-daemon.sh start namenode starting namenode, logging to /opt/modules/hadoop-2.6.0/logs/hadoop-kfk-namenode-bigdata-pro02.kfk.com.out [kfk@bigdata-pro02 hadoop-2.6.0]$ jps 11002 NameNode 11075 Jps 9877 DFSZKFailoverController 10275 QuorumPeerMain 10428 DataNode 10521 JournalNode 10678 NodeManager [kfk@bigdata-pro02 hadoop-2.6.0]$
成功! 變為 bigdata-pro01.kfk.com是active, bigdata-pro02.kfk.com是standby。
同時,大家可以關注我的個人博客:
http://www.cnblogs.com/zlslch/ 和 http://www.cnblogs.com/lchzls/ http://www.cnblogs.com/sunnyDream/
詳情請見:http://www.cnblogs.com/zlslch/p/7473861.html
人生苦短,我願分享。本公眾號將秉持活到老學到老學習無休止的交流分享開源精神,匯聚於互聯網和個人學習工作的精華干貨知識,一切來於互聯網,反饋回互聯網。
目前研究領域:大數據、機器學習、深度學習、人工智能、數據挖掘、數據分析。 語言涉及:Java、Scala、Python、Shell、Linux等 。同時還涉及平常所使用的手機、電腦和互聯網上的使用技巧、問題和實用軟件。 只要你一直關注和呆在群里,每天必須有收獲
對應本平台的討論和答疑QQ群:大數據和人工智能躺過的坑(總群)(161156071)