keepalived介紹
keepalived觀察其名可知,保持存活,在網絡里面就是保持在線了,也就是所謂的高可用或熱備,它集群管理中保證集群高可用的一個服務軟件,其功能類似於heartbeat,用來防止單點故障(單點故障是指一旦某一點出現故障就會導致整個系統架構的不可用)的發生。說到keepalived就不得不說VRRP協議,可以說這個協議就是keepalived實現的基礎,那么首先我們來看看VRRP協議。
VRRP協議介紹
學過網絡的朋友都知道,網絡在設計的時候必須考慮到冗余容災,包括線路冗余,設備冗余等,防止網絡存在單點故障,那在路由器或三層交換機處實現冗余就顯得尤為重要。
在網絡里面有個協議就是來做這事的,這個協議就是VRRP協議,Keepalived就是巧用VRRP協議來實現高可用性(HA)的發生。
VRRP全稱Virtual Router Redundancy Protocol,即虛擬路由冗余協議。對於VRRP,需要清楚知道的是:
1)VRRP是用來實現路由器冗余的協議。
2)VRRP協議是為了消除在靜態缺省路由環境下路由器單點故障引起的網絡失效而設計的主備模式的協議,使得發生故障而進行設計設備功能切換時可以不影響內外數據通信,不需要再修改內部網絡的網絡參數。
3)VRRP協議需要具有IP備份,優先路由選擇,減少不必要的路由器通信等功能。
4)VRRP協議將兩台或多台路由器設備虛擬成一個設備,對外提供虛擬路由器IP(一個或多個)。然而,在路由器組內部,如果實際擁有這個對外IP的路由器如果工作正常的話,就是master,或者是通過算法選舉產生的,MASTER實現針對虛擬路由器IP的各種網絡功能,如ARP請求,ICMP,以及數據的轉發等,其他設備不具有該IP,狀態是BACKUP。除了接收MASTER的VRRP狀態通告信息外,不執行對外的網絡功能,當主級失效時,BACKUP將接管原先MASTER的網絡功能。
5)VRRP協議配置時,需要配置每個路由器的虛擬路由ID(VRID)和優先權值,使用VRID將路由器進行分組,具有相同VRID值的路由器為同一個組,VRID是一個0-255的整整數,;同一個組中的路由器通過使用優先權值來選舉MASTER。,優先權大者為MASTER,優先權也是一個0-255的正整數。
keepalived工作原理
keepalived可提供vrrp以及health-check功能,可以只用它提供雙機浮動的vip(vrrp虛擬路由功能),這樣可以簡單實現一個雙機熱備高可用功能;keepalived是以VRRP虛擬路由冗余協議為基礎實現高可用的,可以認為是實現路由器高可用的協議,即將N台提供相同功能的路由器組成一個路由器組,這個組里面有一個master和多個backup,master上面有一個對外提供服務的vip(該路由器所在局域網內其他機器的默認路由為該vip),master會發組播,當backup收不到VRRP包時就認為master宕掉了,這時就需要根據VRRP的優先級來選舉一個backup當master。這樣的話就可以保證路由器的高可用了。
下圖是keepalived的組件圖
keepalived也是模塊化設計,不同模塊復雜不同的功能,它主要有三個模塊,分別是core、check和VRRP,其中:
core模塊:為keepalived的核心組件,負責主進程的啟動、維護以及全局配置文件的加載和解析;
check:負責健康檢查,包括常見的各種檢查方式;
VRRP模塊:是來實現VRRP協議的。
system call:系統調用
watch dog:監控check和vrrp進程的看管者,check負責檢測器子進程的健康狀態,當其檢測到master上的服務不可用時則通告vrrp將其轉移至backup服務器上。
除此之外,keepalived還有下面兩個組件:
libipfwc:iptables(ipchains)庫,配置LVS會用到
libipvs*:配置LVS會用到
注意,keepalived和LVS完全是兩碼事,只不過他們各負其責相互配合而已。
keepalived正常啟動的時候,共啟動3個進程:
一個是父進程,負責監控其子進程;一個是VRRP子進程,另外一個是checkers子進程;
兩個子進程都被系統watchlog看管,兩個子進程各自負責復雜自己的事。
Healthcheck子進程檢查各自服務器的健康狀況,,例如http,lvs。如果healthchecks進程檢查到master上服務不可用了,就會通知本機上的VRRP子進程,讓他刪除通告,並且去掉虛擬IP,轉換為BACKUP狀態。
Keepalived作用
Keepalived主要用作RealServer的健康狀態檢查以及LoadBalance主機和BackUP主機之間failover的實現。Keepalived的作用是檢測web服務器的狀態,如果有一台web服務器死機,或工作出現故障,Keepalived將檢測到,並將有故障的web服務器從系統中剔除,當web服務器工作正常后Keepalived自動將web服務器加入到服務器群中,這些工作全部自動完成,不需要人工干涉,需要人工做的只是修復故障的web服務器。
----------------------------------------------------------------------------------------------------------------------------
Keepalived和Heartbeat之間的對比
1)Keepalived使用更簡單:從安裝、配置、使用、維護等角度上對比,Keepalived都比Heartbeat要簡單得多,尤其是Heartbeat2.1.4后拆分成3個子項目,安裝、配置、使用都比較復雜,尤其是出問題的時候,都不知道具體是哪個子系統出問題了;而Keepalived只有1個安裝文件、1個配置文件,配置文件也簡單很多;
2)Heartbeat功能更強大:Heartbeat雖然復雜,但功能更強大,配套工具更全,適合做大型集群管理,而Keepalived主要用於集群倒換,基本沒有管理功能;
3)協議不同:Keepalived使用VRRP協議進行通信和選舉,Heartbeat使用心跳進行通信和選舉;Heartbeat除了走網絡外,還可以通過串口通信,貌似更可靠;
Keepalived使用的vrrp協議方式,虛擬路由冗余協議 ;Heartbeat是基於主機或網絡的服務的高可用方式;
Keepalived的目的是模擬路由器的雙機;Heartbeat的目的是用戶service的雙機
4)使用方式基本類似:如果要基於兩者設計高可用方案,最終都要根據業務需要寫自定義的腳本,Keepalived的腳本沒有任何約束,隨便怎么寫都可以;Heartbeat的腳本有約束,即要支持service start/stop/restart這種方式,而且Heartbeart提供了很多默認腳本,簡單的綁定ip,啟動apache等操作都已經有了;
使用建議:
優先使用Keepalived,當Keepalived不夠用的時候才選擇Heartbeat
lvs的高可用建議用Keepavlived
業務的高可用用Heartbeat
--------------------------------------------------------------------------------------------------------------------------
keepalived的配置文件
keepalived只有一個配置文件keepalived.conf,配置文件里面主要包括以下幾個配置項,分別是global_defs、static_ipaddress、static_routes、VRRP_script、VRRP_instance和virtual_server。
總的來說,keepalived主要有三類區域配置,注意不是三種配置文件,是一個配置文件里面三種不同類別的配置區域:
1)全局配置(Global Configuration)
2)VRRPD配置
3)LVS配置
下面就重點來說說這三類區域的配置:
1)全局配置
全局配置又包括兩個子配置:
全局定義(global definition)
靜態路由配置(static ipaddress/routes)
1--全局定義(global definition)配置范例:
global_defs { notification_email { admin@example.com } notification_email_from admin@example.com smtp_server 127.0.0.1 stmp_connect_timeout 30 router_id node1 }
全局配置解析
global_defs全局配置標識,表面這個區域{}是全局配置
notification_email { admin@example.com admin@ywlm.net }
表示keepalived在發生諸如切換操作時需要發送email通知,以及email發送給哪些郵件地址,郵件地址可以多個,每行一個
notification_email_from admin@example.com
表示發送通知郵件時郵件源地址是誰
smtp_server 127.0.0.1
表示發送email時使用的smtp服務器地址,這里可以用本地的sendmail來實現
smtp_connect_timeout 30
連接smtp連接超時時間
router_id node1
機器標識
2--靜態地址和路由配置范例
static_ipaddress { 192.168.1.1/24 brd + dev eth0 scope global 192.168.1.2/24 brd + dev eth1 scope global } static_routes { src $SRC_IP to $DST_IP dev $SRC_DEVICE src $SRC_IP to $DST_IP via $GW dev $SRC_DEVICE }
這里實際上和系統里面用命令配置IP地址和路由的曹一樣,例如:
192.168.1.1/24 brd + dev eth0 scope global 相當於: ip addr add 192.168.1.1/24 brd + dev eth0 scope global
就是給eth0配置IP地址
路由同理
一般這個區域不需要配置
這里實際上就是給服務器配置真實的IP地址和路由的,在復雜的環境下可能需要配置,一般不會用這個來配置,我們可以直接用vi /etc/sysconfig/network-script/ifcfg-eth1來配置,切記這里可不是VIP哦,不要搞混淆了,切記切記!
2)VRRPD配置
VRRPD配置包括三個類:
VRRP同步組(synchroization group)
VRRP實例(VRRP Instance)
VRRP腳本
1--VRRP同步組(synchroization group)配置范例
vrrp_sync_group VG_1 { group { http mysql } notify_master /path/to/to_master.sh notify_backup /path_to/to_backup.sh notify_fault “/path/fault.sh VG_1” notify /path/to/notify.sh smtp_alert }
其中:
group {
http
mysql
}
http和mysql是實例名和下面的實例名一致
notify_master /path/to/to_master.sh:表示當切換到master狀態時,要執行的腳本
notify_backup /path_to/to_backup.sh:表示當切換到backup狀態時,要執行的腳本
notify_fault “/path/fault.sh VG_1”
notify /path/to/notify.sh:
smtp alter表示切換時給global defs中定義的郵件地址發送右鍵通知
2--VRRP實例(instance)配置范例
vrrp_instance http { state MASTER interface eth0 dont_track_primary track_interface { eth0 eth1 } mcast_src_ip <IPADDR> garp_master_delay 10 virtual_router_id 51 priority 100 advert_int 1 authentication { auth_type PASS autp_pass 1234 } virtual_ipaddress { #<IPADDR>/<MASK> brd <IPADDR> dev <STRING> scope <SCOPT> label <LABEL> 192.168.200.17/24 dev eth1 192.168.200.18/24 dev eth2 label eth2:1 } virtual_routes { # src <IPADDR> [to] <IPADDR>/<MASK> via|gw <IPADDR> dev <STRING> scope <SCOPE> tab src 192.168.100.1 to 192.168.109.0/24 via 192.168.200.254 dev eth1 192.168.110.0/24 via 192.168.200.254 dev eth1 192.168.111.0/24 dev eth2 192.168.112.0/24 via 192.168.100.254 } nopreempt preemtp_delay 300 debug }
state:state指定instance(Initial)的初始狀態,就是說在配置好后,這台服務器的初始狀態就是這里指定的,但這里指定的不算,還是得要通過競選通過優先級來確定,里如果這里設置為master,但如若他的優先級不及另外一台,那么這台在發送通告時,會發送自己的優先級,另外一台發現優先級不如自己的高,那么他會就回搶占為master
interface:實例綁定的網卡,因為在配置虛擬IP的時候必須是在已有的網卡上添加的
dont track primary:忽略VRRP的interface錯誤
track interface:跟蹤接口,設置額外的監控,里面任意一塊網卡出現問題,都會進入故障(FAULT)狀態,例如,用nginx做均衡器的時候,內網必須正常工作,如果內網出問題了,這個均衡器也就無法運作了,所以必須對內外網同時做健康檢查
mcast src ip:發送多播數據包時的源IP地址,這里注意了,這里實際上就是在那個地址上發送VRRP通告,這個非常重要,一定要選擇穩定的網卡端口來發送,這里相當於heartbeat的心跳端口,如果沒有設置那么就用默認的綁定的網卡的IP,也就是interface指定的IP地址
garp master delay:在切換到master狀態后,延遲進行免費的ARP(gratuitous ARP)請求
virtual router id:這里設置VRID,這里非常重要,相同的VRID為一個組,他將決定多播的MAC地址
priority 100:設置本節點的優先級,優先級高的為master
advert int:檢查間隔,默認為1秒
virtual ipaddress:這里設置的就是VIP,也就是虛擬IP地址,他隨着state的變化而增加刪除,當state為master的時候就添加,當state為backup的時候刪除,這里主要是有優先級來決定的,和state設置的值沒有多大關系,這里可以設置多個IP地址
virtual routes:原理和virtual ipaddress一樣,只不過這里是增加和刪除路由
lvs sync daemon interface:lvs syncd綁定的網卡
authentication:這里設置認證
auth type:認證方式,可以是PASS或AH兩種認證方式
auth pass:認證密碼
nopreempt:設置不搶占,這里只能設置在state為backup的節點上,而且這個節點的優先級必須別另外的高
preempt delay:搶占延遲
debug:debug級別
notify master:和sync group這里設置的含義一樣,可以單獨設置,例如不同的實例通知不同的管理人員,http實例發給網站管理員,mysql的就發郵件給DBA
3--VRRP腳本范例
vrrp_script check_running { script “/usr/local/bin/check_running” interval 10 weight 10 } vrrp_instance http { state BACKUP smtp_alert interface eth0 virtual_router_id 101 priority 90 advert_int 3 authentication { auth_type PASS auth_pass whatever } virtual_ipaddress { 1.1.1.1 } track_script { check_running weight 20 } }
首先在vrrp_script區域定義腳本名字和腳本執行的間隔和腳本執行的優先級變更vrrp_script check_running {
script “/usr/local/bin/check_running” interval 10 #腳本執行間隔 weight 10 #腳本結果導致的優先級變更:10表示優先級+10;-10則表示優先級-10 }
然后在實例(vrrp_instance)里面引用,有點類似腳本里面的函數引用一樣:先定義,后引用函數名
track_script { check_running weight 20 }
注意:VRRP腳本(vrrp_script)和VRRP實例(vrrp_instance)屬於同一個級別
3)LVS配置
如果你沒有配置LVS+keepalived,那么無需配置這段區域,如果你用的是nginx來代替LVS,這無需配置這款,這里的LVS配置是專門為keepalived+LVS集成准備的。
注意了,這里LVS配置並不是指真的安裝LVS然后用ipvsadm來配置它,而是用keepalived的配置文件來代替ipvsadm來配置LVS,這樣會方便很多,一個配置文件搞定這些,維護方便,配置方便是也!
這里LVS配置也有兩個配置
一個是虛擬主機組配置
一個是虛擬主機配置
1--虛擬主機組配置文件詳解
這個配置是可選的,根據需求來配置吧,這里配置主要是為了讓一台realserver上的某個服務可以屬於多個Virtual Server,並且只做一次健康檢查:
virtual_server_group <STRING> { # VIP port <IPADDR> <PORT> <IPADDR> <PORT> fwmark <INT> }
2--虛擬主機配置
virtual server可以以下面三種的任意一種來配置:
a)virtual server IP port
b)virtual server fwmark int
c)virtual server group string
下面以第一種比較常用的方式來配詳細解說一下:
virtual_server 192.168.1.2 80 { #設置一個virtual server: VIP:Vport delay_loop 3 # service polling的delay時間,即服務輪詢的時間間隔 lb_algo rr|wrr|lc|wlc|lblc|sh|dh #LVS調度算法 lb_kind NAT|DR|TUN #LVS集群模式 persistence_timeout 120 #會話保持時間(秒為單位),即以用戶在120秒內被分配到同一個后端realserver persistence_granularity <NETMASK> #LVS會話保持粒度,ipvsadm中的-M參數,默認是0xffffffff,即每個客戶端都做會話保持 protocol TCP #健康檢查用的是TCP還是UDP ha_suspend #suspendhealthchecker’s activity virtualhost <string> #HTTP_GET做健康檢查時,檢查的web服務器的虛擬主機(即host:頭) sorry_server <IPADDR> <PORT> #備用機,就是當所有后端realserver節點都不可用時,就用這里設置的,也就是臨時把所有的請求都發送到這里啦 real_server <IPADDR> <PORT> #后端真實節點主機的權重等設置,主要,后端有幾台這里就要設置幾個 { weight 1 #給每台的權重,0表示失效(不知給他轉發請求知道他恢復正常),默認是1 inhibit_on_failure #表示在節點失敗后,把他權重設置成0,而不是沖IPVS中刪除 notify_up <STRING> | <QUOTED-STRING> #檢查服務器正常(UP)后,要執行的腳本 notify_down <STRING> | <QUOTED-STRING> #檢查服務器失敗(down)后,要執行的腳本 HTTP_GET #健康檢查方式 { url { #要堅持的URL,可以有多個 path / #具體路徑 digest <STRING> status_code 200 #返回狀態碼 } connect_port 80 #監控檢查的端口 bindto <IPADD> #健康檢查的IP地址 connect_timeout 3 #連接超時時間 nb_get_retry 3 #重連次數 delay_before_retry 2 #重連間隔 } # END OF HTTP_GET|SSL_GET #下面是常用的健康檢查方式,健康檢查方式一共有HTTP_GET|SSL_GET|TCP_CHECK|SMTP_CHECK|MISC_CHECK這些 #TCP方式 TCP_CHECK { connect_port 80 bindto 192.168.1.1 connect_timeout 4 } # TCP_CHECK # SMTP方式,這個可以用來給郵件服務器做集群 SMTP_CHECK host { connect_ip <IP ADDRESS> connect_port <PORT> #默認檢查25端口 14 KEEPALIVED bindto <IP ADDRESS> } connect_timeout <INTEGER> retry <INTEGER> delay_before_retry <INTEGER> # “smtp HELO”ž|·-ëê§Œà” helo_name <STRING>|<QUOTED-STRING> } #SMTP_CHECK #MISC方式,這個可以用來檢查很多服務器只需要自己會些腳本即可 MISC_CHECK { misc_path <STRING>|<QUOTED-STRING> #外部程序或腳本 misc_timeout <INT> #腳本或程序執行超時時間 misc_dynamic #這個就很好用了,可以非常精確的來調整權重,是后端每天服務器的壓力都能均衡調配,這個主要是通過執行的程序或腳本返回的狀態代碼來動態調整weight值,使權重根據真實的后端壓力來適當調整,不過這需要有過硬的腳本功夫才行哦 #返回0:健康檢查沒問題,不修改權重 #返回1:健康檢查失敗,權重設置為0 #返回2-255:健康檢查沒問題,但是權重卻要根據返回代碼修改為返回碼-2,例如如果程序或腳本執行后返回的代碼為200,#那么權重這回被修改為 200-2 } } # Realserver } # Virtual Server
================================小案例 分享=============================
172.16.60.205 作為web-master主節點, 172.16.60.206 作為web-slave從節點, 兩節點上都部署nginx. 現在在兩節點上部署keepalived, 只做節點故障時vip轉移功能, 不做負載均衡功能. vip為: 172.16.60.129 1) 主從兩節點部署nginx, 安裝和配置過程省略. 配置一樣, 訪問內容一致! yum安裝的nginx, 啟動命令: /etc/init.d/nginx start http://172.16.60.205/ 和 http://172.16.60.205/ 均可以正常訪問. 2) 主從兩節點安裝keepalived (兩個節點都要安裝) [root@web-master ~]# yum install -y openssl-devel [root@web-master ~]# cd /usr/local/src/ [root@web-master src]# wget http://www.keepalived.org/software/keepalived-1.3.5.tar.gz [root@web-master src]# tar -zvxf keepalived-1.3.5.tar.gz [root@web-master src]# cd keepalived-1.3.5 [root@web-master keepalived-1.3.5]# ./configure --prefix=/usr/local/keepalived [root@web-master keepalived-1.3.5]# make && make install [root@web-master keepalived-1.3.5]# cp /usr/local/src/keepalived-1.3.5/keepalived/etc/init.d/keepalived /etc/rc.d/init.d/ [root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/ [root@web-master keepalived-1.3.5]# mkdir /etc/keepalived/ [root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/ [root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/sbin/keepalived /usr/sbin/ [root@web-master keepalived-1.3.5]# echo "/etc/init.d/keepalived start" >> /etc/rc.local [root@web-master keepalived-1.3.5]# chmod +x /etc/rc.d/init.d/keepalived [root@web-master keepalived-1.3.5]# chkconfig keepalived on 3) keepalived配置 ==========web-master 主節點的配置========== [root@web-master ~]# cd /etc/keepalived/ [root@web-master keepalived]# cp keepalived.conf keepalived.conf.bak [root@web-master keepalived]# >keepalived.conf [root@web-master keepalived]# vim keepalived.conf ! Configuration File for keepalived global_defs { router_id LVS_Master } vrrp_instance VI_1 { state MASTER #指定instance初始狀態,實際根據優先級決定.backup節點不一樣 interface eth0 #虛擬IP所在網 virtual_router_id 51 #VRID,相同VRID為一個組,決定多播MAC地址 priority 100 #優先級,另一台改為90.backup節點不一樣 advert_int 1 #檢查間隔 authentication { auth_type PASS #認證方式,可以是pass或ha auth_pass 1111 #認證密碼 } virtual_ipaddress { 172.16.60.129 #VIP地址 } } ==========web-slave 從節點的配置========== [root@web-slave ~]# cd /etc/keepalived/ [root@web-slave keepalived]# cp keepalived.conf keepalived.conf.bak [root@web-slave keepalived]# >keepalived.conf [root@web-slave keepalived]# vim keepalived.conf ! Configuration File for keepalived global_defs { router_id LVS_Backup } vrrp_instance VI_1 { state BACKUP interface eth0 virtual_router_id 51 priority 90 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 172.16.60.129 } } 4) 分別啟動主從節點的keepalived服務 啟動主節點keepalived服務 [root@web-master keepalived]# /etc/init.d/keepalived start Starting keepalived: [ OK ] [root@web-master keepalived]# ps -ef|grep keepalived root 13529 1 0 16:36 ? 00:00:00 keepalived -D root 13530 13529 0 16:36 ? 00:00:00 keepalived -D root 13532 13529 0 16:36 ? 00:00:00 keepalived -D root 13536 9799 0 16:36 pts/1 00:00:00 grep keepalived 啟動從節點keepalived服務 [root@web-slave keepalived]# /etc/init.d/keepalived start Starting keepalived: [ OK ] [root@web-slave keepalived]# ps -ef|grep keepalived root 3120 1 0 16:37 ? 00:00:00 keepalived -D root 3121 3120 0 16:37 ? 00:00:00 keepalived -D root 3123 3120 0 16:37 ? 00:00:00 keepalived -D root 3128 27457 0 16:37 pts/2 00:00:00 grep keepalived 查看vip資源情況 (默認vip是在主節點上的) [root@web-master keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0 inet 172.16.60.129/32 scope global eth0 inet6 fe80::250:56ff:fe88:43f8/64 scope link valid_lft forever preferred_lft forever 從節點沒有vip資源 [root@web-slave keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0 inet6 fe80::250:56ff:feac:509b/64 scope link valid_lft forever preferred_lft forever 5) keepalived 實現故障轉移 (轉移vip資源) 假設主節點宕機或keepalived服務掛掉, 則vip資源就會自動轉移到從節點 [root@web-master keepalived]# /etc/init.d/keepalived stop Stopping keepalived: [ OK ] [root@web-master keepalived]# ps -ef|grep keepalived root 13566 9799 0 16:40 pts/1 00:00:00 grep keepalived [root@web-master keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0 inet6 fe80::250:56ff:fe88:43f8/64 scope link valid_lft forever preferred_lft forever 則從節點這邊就會接管vip [root@web-slave keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0 inet 172.16.60.129/32 scope global eth0 inet6 fe80::250:56ff:feac:509b/64 scope link valid_lft forever preferred_lft forever 接着再重啟主節點的keepalived服務, 即主節點故障恢復后, 就會重新搶回vip (根據配置里的優先級決定的) [root@web-master keepalived]# /etc/init.d/keepalived start Starting keepalived: [ OK ] [root@web-master keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0 inet 172.16.60.129/32 scope global eth0 inet6 fe80::250:56ff:fe88:43f8/64 scope link valid_lft forever preferred_lft forever 這時候, 從節點的vip就消失了 [root@web-slave keepalived]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0 inet6 fe80::250:56ff:feac:509b/64 scope link valid_lft forever preferred_lft forever 以上操作, keepalived僅僅實現了兩台機器的vip的故障轉移功能, 即實現了雙機熱備, 避免了單點故障. 即keepalived配置里僅僅只是在宕機(或keepalived服務掛掉)后才實現vip轉移, 並沒有實現所監控應用故障時的vip轉移. 比如案例中兩台機器的nginx, 可以監控nginx, 當nginx掛掉后,實現自啟動, 如果強啟失敗, 則將vip轉移到對方節點. 這種情況的配置可以參考另一篇博文: https://www.cnblogs.com/kevingrace/p/6138185.html
============下面是曾經使用過的一個案例: 三台節點機器,配置三個VIP,實行相互之間的"兩主兩從"模式=============
server1:第一台節點的keepalived.conf配置. 其中VIP:192.168.20.187 [root@keepalived-node01 ~]# cat /etc/keepalived/keepalived.conf ! Configuration File for keepalived global_defs { notification_email { kevin@bobo.com } smtp_server 192.168.200.1 smtp_connect_timeout 30 router_id innodb_cluster #局域網中需要共享該vip的服務器,該配置要一致 vrrp_skip_check_adv_addr vrrp_garp_interval 0 vrrp_gna_interval 0 } vrrp_instance VI_1 { state MASTER #狀態為master,表明 keepalived 啟動后會搶占IP, 但,下面的優先級值201要高於 從庫的優先級 101 interface eth0 #viP 綁定的網卡 virtual_router_id 191 #這個組隊標志,同一個vrrp 下的 值一致,主從一致 priority 201 # 主庫為201,高於從庫101 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.20.187 #這是VIP 值 } } vrrp_instance VI_2 { state BACKUP #狀態為 BACKUP,表明 keepalived 啟動后不搶占IP interface eth0 #VIP 綁定的接口 virtual_router_id 193 #組隊標識,同一個vrrp 下的值一致 priority 101 #設置優先級小於另一個節點的priority 上值。 advert_int 1 authentication { auth_type PASS auth_pass 3333 } virtual_ipaddress { 192.168.20.189 } } 啟動keepalived [root@keepalived-node01 ~]# /etc/init.d/keepalived start [root@keepalived-node01 ~]# ps -ef|grep keepalived root 13746 1 0 16:31 ? 00:00:00 /usr/sbin/keepalived -D root 13747 13746 0 16:31 ? 00:00:00 /usr/sbin/keepalived -D root 13748 13746 0 16:31 ? 00:00:00 /usr/sbin/keepalived -D root 14089 13983 0 16:36 pts/1 00:00:00 grep --color=auto keepalived 啟動keepalived服務后,查看ip [root@keepalived-node01 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether 2e:ab:68:68:ee:90 brd ff:ff:ff:ff:ff:ff inet 192.168.20.191/24 brd 192.168.20.255 scope global noprefixroute eth0 valid_lft forever preferred_lft forever inet 192.168.20.187/32 scope global eth0 valid_lft forever preferred_lft forever inet6 fe80::2cab:68ff:fe68:ee90/64 scope link valid_lft forever preferred_lft forever ========================================================================================== server2:第二台節點的keepalived.conf配置. 其中VIP:192.168.20.188 [root@keepalived-node02 ~]# cat /etc/keepalived/keepalived.conf ! Configuration File for keepalived global_defs { notification_email { kevin@bobo.com } smtp_server 192.168.200.1 smtp_connect_timeout 30 router_id innodb_cluster #局域網中需要共享該vip的服務器,該配置要一致 vrrp_skip_check_adv_addr vrrp_garp_interval 0 vrrp_gna_interval 0 } vrrp_instance VI_1 { state MASTER #狀態為master,表明 keepalived 啟動后會搶占IP, 但,下面的優先級值201要高於 從庫的優先級 101 interface eth0 #viP 綁定的網卡 virtual_router_id 192 #這個組隊標志,同一個vrrp 下的 值一致,主從一致 priority 201 # 主庫為201,高於從庫101 advert_int 1 authentication { auth_type PASS auth_pass 2222 } virtual_ipaddress { 192.168.20.188 #這是VIP 值 } } vrrp_instance VI_2 { state BACKUP #狀態為 BACKUP,表明 keepalived 啟動后不搶占IP interface eth0 #VIP 綁定的接口 virtual_router_id 191 #組隊標識,同一個vrrp 下的值一致 priority 101 #設置優先級小於另一個節點的priority 上值。 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.20.187 } } 啟動keepalived [root@keepalived-node02 ~]# /etc/init.d/keepalived start [root@keepalived-node02 ~]# ps -ef|grep keepalived root 13327 1 0 16:32 ? 00:00:00 /usr/sbin/keepalived -D root 13328 13327 0 16:32 ? 00:00:00 /usr/sbin/keepalived -D root 13329 13327 0 16:32 ? 00:00:00 /usr/sbin/keepalived -D root 13570 13529 0 16:39 pts/1 00:00:00 grep --color=auto keepalived 啟動keepalived服務后查看ip [root@keepalived-node02 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether 76:6d:74:97:03:15 brd ff:ff:ff:ff:ff:ff inet 192.168.20.192/24 brd 192.168.20.255 scope global noprefixroute eth0 valid_lft forever preferred_lft forever inet 192.168.20.188/32 scope global eth0 valid_lft forever preferred_lft forever inet6 fe80::746d:74ff:fe97:315/64 scope link valid_lft forever preferred_lft forever ========================================================================================== server3:第三台節點的keepalived.conf配置. 其中VIP:192.168.20.189 [root@keepalived-node03 ~]# cat /etc/keepalived/keepalived.conf ! Configuration File for keepalived global_defs { notification_email { kevin@bobo.com } smtp_server 192.168.200.1 smtp_connect_timeout 30 router_id innodb_cluster #和server1 一致全局唯一 vrrp_skip_check_adv_addr # vrrp_strict vrrp_garp_interval 0 vrrp_gna_interval 0 } vrrp_instance VI_1 { state BACKUP #主是master,從就是backup interface eth0 virtual_router_id 192 # 組隊標識,同一個vrrp 下一致 priority 101 #優先級也變小 advert_int 1 authentication { auth_type PASS auth_pass 2222 } virtual_ipaddress { 192.168.20.188 } } vrrp_instance VI_2 { state MASTER #主變成MASTER interface eth0 #綁定網卡 virtual_router_id 193 #組隊標志,同一個vip 下一致 priority 201 #優先級提升 advert_int 1 authentication { auth_type PASS auth_pass 3333 } virtual_ipaddress { 192.168.20.189 } } 啟動keepalived [root@keepalived-node03 ~]# /etc/init.d/keepalived start [root@keepalived-node03 ~]# ps -ef|grep keepalived root 13134 1 0 16:33 ? 00:00:00 /usr/sbin/keepalived -D root 13135 13134 0 16:33 ? 00:00:00 /usr/sbin/keepalived -D root 13136 13134 0 16:33 ? 00:00:00 /usr/sbin/keepalived -D root 13526 13460 0 16:41 pts/1 00:00:00 grep --color=auto keepalived 啟動keepalived服務后查看ip [root@keepalived-node03 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000 link/ether 22:ee:46:41:f0:e6 brd ff:ff:ff:ff:ff:ff inet 192.168.20.193/24 brd 192.168.20.255 scope global noprefixroute eth0 valid_lft forever preferred_lft forever inet 192.168.20.189/32 scope global eth0 valid_lft forever preferred_lft forever inet6 fe80::20ee:46ff:fe41:f0e6/64 scope link valid_lft forever preferred_lft forever 溫馨提示: 如上,keepalived.conf配置后,重啟keepalived服務,重啟成功並且vip地址已經有了,但是死活ping不通vip地址!! 這是因為keepalived.conf文件中的vrrp_strict參數引起的,將該參數注釋掉就可以了!!! vrrp_strict 表示嚴格執行VRRP協議規范,此模式不支持節點單播
VIP地址ping不通,需要注釋vrrp_strict參數配置即可!