HA機制下的hadoop配置



[版權申明:本文系作者原創,轉載請注明出處]

文章出處:http://www.cnblogs.com/sdksdk0/p/5585355.html

作者: 朱培    ID:sdksdk0

--------------------------------------------------

在我之前的一篇博客中,已經分享了關於hadoop的基本配置,地址:http://blog.csdn.net/sdksdk0/article/details/51498775,但是那個是使用與初學者學習和測試的,今天用分享的這個比上次那個要復雜一些,主要是加了zookeeper和兩台namenode的配置,同時使用這種方式,可以解決服務器的腦裂問題。

一、hdfs的HA機制

NameNode服務器一台是ACTIVE和一台是STANDBY。通過Qjournal(日志管理系統) 使用zkfc(基於zookeeper失敗切換控制)

 

如何防止腦裂現象: 當ACTIVE假死的時候,STANDBY的zkfc會發出指令 ssh kill-9 namenode 返回0(成功殺死,返回1則殺死失敗)的時候再去通知第二台namenode去切換狀態。 若無返回碼的時候(超時未響應),則啟動proweroff.sh(用戶自定義的腳本)給第一台namenode斷電,返回0則執行正常,然后去切換。

當第一台機器斷電的時候(指活躍狀態的namenode和zkfc都斷電了),則第2台的zkfc會執行proweroff.sh。

關鍵詞: 1、有兩個namenode,分別是active和standby.

2、有兩個zkfc來監控和管理兩個namenode的狀態

3、元數據日志edits由一個專門的日志系統負責管理--qjoournal

4、zkfc及qjournal的功能都要依賴於zookeeper的服務來實現

5、zkfc做狀態切換時有兩個防止腦裂的機制--ssh和shell腳本。

二、Hadoop集群的配置

打開hadoop的安裝目錄,如果還不會下載或者基礎都不會使用的請看文章開頭我提供的鏈接,請先學習基礎配置。 我這里主要使用了5台虛擬機來模擬搭建這整個集群環境。

            主機名       IP地址                       主要功能

  • ubuntu1     192.168.44.128         namenode zkfc ResourceManager
  • ubuntu2     192.168.44.131         namenode zkfc ResourceManager
  • ubuntu3     192.168.44.132         DataNode、NodeManager、JournalNode、QuorumPeerMain
  • ubuntu4     192.168.44.133         DataNode、NodeManager、JournalNode、QuorumPeerMain
  • ubuntu5     192.168.44.134         DataNode、NodeManager、JournalNode、QuorumPeerMain

我們可以先來配置ubuntu1,然后剩下的就scp到其他機器上就可以了 core-site.xml

<configuration>

    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://ns1/</value>
    </property>
    <!-- 指定hadoop臨時目錄 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/admin1/hadoop/HAhadoop/tmp/hadoop</value>
    </property>

    <!-- 指定zookeeper地址 -->
    <property>
        <name>ha.zookeeper.quorum</name>
        <value>ubuntu3:2181,ubuntu4:2181,ubuntu5:2181</value>
        </property>
</configuration>

 

hdfs-site.xml

 1 <configuration>
 2                 <!--指定hdfs的nameservice為ns1,需要和core-site.xml中的保持一致 -->
 3                 <property>
 4                     <name>dfs.nameservices</name>
 5                     <value>ns1</value>
 6                 </property>
 7                 <!-- ns1下面有兩個NameNode,分別是nn1,nn2 -->
 8                 <property>
 9                     <name>dfs.ha.namenodes.ns1</name>
10                     <value>nn1,nn2</value>
11                 </property>
12                 <!-- nn1的RPC通信地址 -->
13                 <property>
14                     <name>dfs.namenode.rpc-address.ns1.nn1</name>
15                     <value>ubuntu1:9000</value>
16                 </property>
17                 <!-- nn1的http通信地址 -->
18                 <property>
19                     <name>dfs.namenode.http-address.ns1.nn1</name>
20                     <value>ubuntu1:50070</value>
21                 </property>
22                 <!-- nn2的RPC通信地址 -->
23                 <property>
24                     <name>dfs.namenode.rpc-address.ns1.nn2</name>
25                     <value>ubuntu2:9000</value>
26                 </property>
27                 <!-- nn2的http通信地址 -->
28                 <property>
29                     <name>dfs.namenode.http-address.ns1.nn2</name>
30                     <value>ubuntu2:50070</value>
31                 </property>
32                 <!-- 指定NameNode的元數據在JournalNode上的存放位置 -->
33                 <property>
34                     <name>dfs.namenode.shared.edits.dir</name>
35                     <value>qjournal://ubuntu3:8485;ubuntu4:8485;ubuntu5:8485/ns1</value>
36                 </property>
37                 <!-- 指定JournalNode在本地磁盤存放數據的位置 -->
38                 <property>
39                     <name>dfs.journalnode.edits.dir</name>
40                     <value>/home/admin1/hadoop/HAhadoop/journaldata</value>
41                 </property>
42                 <!-- 開啟NameNode失敗自動切換 -->
43                 <property>
44                     <name>dfs.ha.automatic-failover.enabled</name>
45                     <value>true</value>
46                 </property>
47                 <!-- 配置失敗自動切換實現方式 -->
48                 <property>
49                     <name>dfs.client.failover.proxy.provider.ns1</name>
50                     <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
51                 </property>
52                 <!-- 配置隔離機制方法,多個機制用換行分割,即每個機制暫用一行-->
53                 <property>
54                     <name>dfs.ha.fencing.methods</name>
55                     <value>
56                         sshfence
57                         shell(/bin/true)
58                     </value>
59                 </property>
60                 <!-- 使用sshfence隔離機制時需要ssh免登陸 -->
61                 <property>
62                     <name>dfs.ha.fencing.ssh.private-key-files</name>
63                     <value>/home/admin1/.ssh/id_rsa</value>
64                 </property>
65                 <!-- 配置sshfence隔離機制超時時間 -->
66                 <property>
67                     <name>dfs.ha.fencing.ssh.connect-timeout</name>
68                     <value>30000</value>
69                 </property>
70             </configuration>

 

mapred-site.xml

1   <configuration>
2                 <!-- 指定mr框架為yarn方式 -->
3                 <property>
4                     <name>mapreduce.framework.name</name>
5                     <value>yarn</value>
6                 </property>
7             </configuration>    

 

yarn-site.xml

 1 <configuration>
 2 
 3 <!-- 開啟RM高可用 -->
 4                     <property>
 5                        <name>yarn.resourcemanager.ha.enabled</name>
 6                        <value>true</value>
 7                     </property>
 8                     <!-- 指定RM的cluster id -->
 9                     <property>
10                        <name>yarn.resourcemanager.cluster-id</name>
11                        <value>yrc</value>
12                     </property>
13                     <!-- 指定RM的名字 -->
14                     <property>
15                        <name>yarn.resourcemanager.ha.rm-ids</name>
16                        <value>rm1,rm2</value>
17                     </property>
18                     <!-- 分別指定RM的地址 -->
19                     <property>
20                        <name>yarn.resourcemanager.hostname.rm1</name>
21                        <value>ubuntu1</value>
22                     </property>
23                     <property>
24                        <name>yarn.resourcemanager.hostname.rm2</name>
25                        <value>ubuntu2</value>
26                     </property>
27                     <!-- 指定zk集群地址 -->
28                     <property>
29                        <name>yarn.resourcemanager.zk-address</name>
30                        <value>ubuntu3:2181,ubuntu4:2181,ubuntu5:2181</value>
31                     </property>
32                     <property>
33                        <name>yarn.nodemanager.aux-services</name>
34                        <value>mapreduce_shuffle</value>
35                     </property>
36             </configuration>

 

slaves

1 ubuntu3
2 ubuntu4
3 ubuntu5

 

還有就是修改一下主機名。 sudo vi /etc/hostname ubuntu1 以及hosts的內容:

192.168.44.128  ubuntu1
192.168.44.131  ubuntu2
192.168.44.132  ubuntu3
192.168.44.133  ubuntu4
192.168.44.134  ubuntu5

 

注意:一定要把原來的那兩天127.0.1.1 這一條給刪除掉,一個hosts文件中,不能出現主機名相同和ip地址不同的情況,我開始就是因為這個因為,折騰了很久,datanode就是搭建不起來。

啟動過程:

1、啟動zookeeper集群 分別在ubuntu3,4,5中輸入 開啟服務: bin/zkServer.sh start 查看狀態: bin/zkServer.sh status

2、啟動journalnode 分別在ubuntu3,4,5中輸入 sbin/hadoop-daemon.sh start journalnode 運行jps命令檢驗,多了JournalNode進程

3、格式化HDFS

  在ubuntu1上執行命令:

bin/hdfs namenode -format
#格式化后會在根據core-site.xml中的hadoop.tmp.dir配置生成個文件,這里我配置的是/HAhadoop/tmp,然后將/HAhadoop/tmp拷貝到ubuntu2的/HAhadoop/下。

  

scp -r tmp/ ubuntu2:/home/admin1/hadoop/HAhadoop/

 

4、格式化ZKFC(在ubuntu1上執行即可) bin/hdfs zkfc -formatZK

5、啟動HDFS(在ubuntu1上執行) sbin/start-dfs.sh

6、啟動YARN(在ubuntu1上執行) sbin/start-yarn.sh

如果是在ubuntu1中啟動的話,那么默認的瀏覽窗口會是這樣: ubuntu2是Active的,ubuntu1是一個Standby狀態,

 

 

 

這個時候如果你去ubuntu2里面把這個namenode進程殺死的話,ubuntu1會自動切換為Active,ubuntu2會變成無法連接。

 

 

 

這樣就實現了服務器的動態切換,這樣萬一有一個namenode宕機了,剩下了一台會自動切換。這種使用了zookeeper切換的就是前面說到的HA機制了。

 

當整個集群搭建完畢的效果就會是這樣,如果用jps去查看一下:

在兩個namenode節點上面會這樣顯示:

在剩下的3個datanode上面會這樣:

 

可以通過訪問ubuntu2:8088/Cluster來查看:活躍節點是3個

到這里整個集群環境就搭建完畢了,當然如果你電腦配置不是很高的話,可以選擇把datanode直接放在namenode一起配置也可以。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM