前文:如果格式化完之后,使用jps命令發現進程都已經啟動,但是使用web頁面打不開hadoop的網頁,可能原因就是防火牆沒關或者是哪個配置過程配錯了。
1.關閉防火牆
一般最好是關閉防火牆比較關閉。 systemctl stop firewalld.service 關閉防火牆; 禁止自動啟動就用 systemctl disable firewalld.service . 就可以了。
還有個防火牆是selinux: 要設置為 vi /etc/selinux.config
關閉再重新訪問網頁還是不行,需要檢查配置是否出錯。
(我在配置的過程中是因為忘記把hdfs-site.xml.template文件重命名為hdfs-site.xml)。
每次格式化后,名稱結點 的clusterID(集群ID)會被新建,而數據結點的clusterID還是原來的,造成名稱結點和數據節點的clusterID不一致。
2. 停止Hadoop所有進程
$ stop-all.sh
3. 刪除在core-site.xml和hdfs-site.xml中指定的data文件夾下面的數據
[root@zhf123 tmp]# pwd /opt/module/cdh/hadoop-2.5.0-cdh5.3.6/data/tmp [root@zhf123 tmp]# ls dfs nm-local-dir [root@zhf123 tmp]# rm -rf ./*
4. 刪除$HADOOP_HOME目錄下的logs和tmp目錄(關鍵步驟)
$ cd $HADOOP_HOME $ ls bin include libexec logs README.txt share etc lib LICENSE.txt NOTICE.txt sbin tmp $ rm -rf logs tmp
5. 重新格式化文件系統
$ hdfs namenode -format
6. 啟動Hadoop進程
$ start-all.sh
7. 確認Hadoop進程是否已開啟
$ jps 7366 NameNode 8278 Jps 7640 SecondaryNameNode 7849 ResourceManager 7482 DataNode 7967 NodeManager
8.重新使用瀏覽器訪問hdfs頁面
OK,沒問題了,大功告成。
參考鏈接: