AIX下的ha高可用集群cluster


安裝ha軟件

一、安裝軟件

最穩定的版本是5.4.0,優先安裝穩定版本5.4

安裝依賴於包base.data, cluster的man包安裝失敗原因是缺少base.data包

安裝所有cluster.開頭的包,可以不安裝cluster.man 包

二、打ha補丁

打補丁之前先執行指令:inutoc生成  .toc文件,然后smitty  update_all升級cluster      到5.4.1.0版本

 

ha環境的搭建注意事項

一、ha配置為主備模式或者互備模式應該根據應用系統的要求選擇,在設置資源運行的優先級時 第一個節點就是資源組的首選運行節點。

二、node切換之前不需要varyoffvg ,ha可以自動varyoffvg並且mount 其中的fs

三、在切換oradatavg前,必須先shutdown 掉oracle,否則oracle會宕機

四、在不同節點切換vg時,在第一次切換到新節點之前必須先執行importvg,將vg添加到AIX的ODM庫中,這樣ha才可以varyonvg,否則找不到資源的路徑,如果想回切資源,但是之前node上執行過exportvg 即修改掉了ODM中的vg指定路徑,這樣是無法varyonvg的,必須重新執行importvg指令添加vg的路徑到ODM庫中,ha才能自動激活vg。

五、ha在node間切換時,對vg只負責varyonvg 和varyonffvg 不負責importvg 和exportvg

六、ha節點間的自由切換不需要os密碼認證,由系統后台進程通訊完成

七、刪除cluster前必須要先停掉所有節點的集群服務,否則集群崩潰

八、集群節點間同步信息時,同步的是集群配置文件的內容,不是同步各個節點上的os中的內容。

 

搭建oracle ha步驟

一、安裝oracle軟件

1、

二、dbca創建oracle庫

三、配置集群資源(service ip)

四、配置集群資源(oradatavg)

五、配置集群資源(app server)

六、不同node之間切換oracle

解決HA的 腦裂問題

一、安裝創建並發vg時必需的軟件包clvm包,該包安裝、升級、后必須重啟os

clvm包的描述:Enhanced Concurrent Logical Volume Manager

軟件包在aix6100-dvd1.iso中:安裝時進入到installp/ppc目錄下執行安裝

軟件包升級在6106中:升級時使用指令smitty update_all 直接選擇全部升級到最新版   本,不支持選擇部分軟件包升級,系統只支持相關軟件包全部升級

二、確定共享存儲

確定共享存儲的方法有三種:

方法一:

在共享存儲的服務器上lspv,如果對應hdiskn的PVID是相同的就可以確定為    是              共享存儲

另外執行指令:bootinfo -s hdiskn,查看下對應存儲的大小,共享存儲的大小必定                       是相同的

 

方法二:

只針對IBM的存儲才能生效,只對IBM的DS系統存儲才能生效

執行指令:mpio_get_config -Av

 

顯示結果中的 User Label列值是唯一的,在211和212機器上同時執行該指令,

如果對應hdiskn的 User Lablel列值相同,就說明是共享存儲

方法三:

使用dbh_read指令,使用該指令前要確保共享存儲上沒有做心跳磁盤,否則就將                      測試信息寫入共享存儲的磁盤頭了

在211端:     /usr/sbin/rsct/bin/dhb_read -p hdisk8 -r 進入信息receive狀態

在212端:  /usr/sbin/rsct/bin/dhb_read -p hdisk8 -t  進入信息transate狀態

如果在211端能成功接收到212端發送的測試信息,就說明hdisk8盤是共享                                  存儲

三、創建並發VG,做磁盤心跳

1、在211下創建hboravg 類型為enhanced concurrent 增加型並發vg,同時選擇不自                       動active,並發vg做磁盤心跳只是使用了並發vg的vgda區,只使用磁盤頭,不用               設置系統重啟時自動激活,

2、在211下:在並發vg下創建測試lv,目的是測試是否成功創建了並發vg,即該vg                        是否可用做                        為並發vg來用, lv名稱: sychlv

在創建lv前需要先activevg : varyonvg hboravg

然后創建lv                                 :  smitty mklv

3、211下:

deactive vg            :  varyoffvg hboravg

4、在212下導入:

導入vg               : Importvg -V mainNum -y hboravg

在212下能夠正常顯示vg中的lv,通常是lv的type顯示不是??就可以判定為正            常

5、211和212端全部deactive vg

執行指令                            :varyoffvg hboravg

 

四、啟動集群,激活gsclvmd進程,通過該進程來active並發vg,測試vg是否可以同步

1、啟動集群,因為varyonvg -c hboravg激活到enhanced concurrent模式時必須有gsclvmd      進程,但是gsclvmd進程是由ha啟動的,所以在激活前必須有gsclvmd進程存在

 

查看進程指令:ps  -ef | grep gsclvmd

 

2、激活vg到enhanced concurrent模式

211和212端全部執行指令:varyonvg -c hboravg

vg激活后顯示的狀態不是active而是concurrent

3、測試是否是並發vg

在211端創建testlv,正常情況應該是自動同步到212端

在212端顯示vg的情況:lsvg -l  hboravg

應該可以顯示出在211端創建的lv,正常情況自動推送到212端

在212下:

cd  /dev

ls  -l *test*

可以正常顯示vg和lv對應的設備文件

五、添加並發vg到ha中,測試心跳是否成功

1、直接添加Configure HACMP Communication Interfaces/Devices

選擇:  Devices

選擇: aix211 hdisk8 和aix212 hdisk8

2、同步集群

3、測試

(i)資源組目前運行在211上,

ifconfig en0 down :資源切到了211的en1網卡上

ifconfig en1 down :資源應該切換到212的en0上,同時seviceIP在211上消                       失

(ii)在212下,查看並確認資源切換是否成功,心跳是否成功

在212端: ifconfig -a  |service IP資源應該可以成功切換到212上

重啟211的兩個網卡en0和en1,資源仍然正常運行在212節點上,並且212節點            不會死機,應該可以正常接管資源組。

六、HA腦裂問題解決

總結:

整個過程操作順序:

創建hboravg---->創建cluster--->add node--->descover---->add network-->add interface--

-->config resource --->add resource group --->資源裝車show/change---->同步集群到                各個節點---->啟動集群---->varyonvg -c hboravg啟動到Enhanced Concurrent模式---

---->創建測試lv驗證並發vg----add device hdisk8(心跳磁盤)---->同步集群到各個節點

--->down網卡測試心跳盤是否生效

本文由 蝦米 首發於【漫兮網http://www.manxinet.com)】未經允許不得以任何方式轉載,違者必將追究法律責任


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM