Redis的集群方案大致有三種:1)redis cluster集群方案;2)master/slave主從方案;3)哨兵模式來進行主從替換以及故障恢復。
一、sentinel哨兵模式介紹
Sentinel(哨兵)是用於監控redis集群中Master狀態的工具,是Redis 的高可用性解決方案,sentinel哨兵模式已經被集成在redis2.4之后的版本中。sentinel是redis高可用的解決方案,sentinel系統可以監視一個或者多個redis master服務,以及這些master服務的所有從服務;當某個master服務下線時,自動將該master下的某個從服務升級為master服務替代已下線的master服務繼續處理請求。
sentinel可以讓redis實現主從復制,當一個集群中的master失效之后,sentinel可以選舉出一個新的master用於自動接替master的工作,集群中的其他redis服務器自動指向新的master同步數據。一般建議sentinel采取奇數台,防止某一台sentinel無法連接到master導致誤切換。其結構如下:
Redis-Sentinel是Redis官方推薦的高可用性(HA)解決方案,當用Redis做Master-slave的高可用方案時,假如master宕機了,Redis本身(包括它的很多客戶端)都沒有實現自動進行主備切換,而Redis-sentinel本身也是一個獨立運行的進程,它能監控多個master-slave集群,發現master宕機后能進行自動切換。Sentinel由一個或多個Sentinel 實例 組成的Sentinel 系統可以監視任意多個主服務器,以及這些主服務器屬下的所有從服務器,並在被監視的主服務器進入下線狀態時,自動將下線主服務器屬下的某個從服務器升級為新的主服務器。
例如下圖所示:
在Server1 掉線后:
升級Server2 為新的主服務器:
Sentinel版本
Sentinel當前最新的穩定版本稱為Sentinel 2(與之前的Sentinel 1區分開來)。隨着redis2.8的安裝包一起發行。安裝完Redis2.8后,可以在redis2.8/src/里面找到Redis-sentinel的啟動程序。
強烈建議:如果你使用的是redis2.6(sentinel版本為sentinel 1),你最好應該使用redis2.8版本的sentinel 2,因為sentinel 1有很多的Bug,已經被官方棄用,所以強烈建議使用redis2.8以及sentinel 2。
Sentinel狀態持久化
snetinel的狀態會被持久化地寫入sentinel的配置文件中。每次當收到一個新的配置時,或者新創建一個配置時,配置會被持久化到硬盤中,並帶上配置的版本戳。這意味着,可以安全的停止和重啟sentinel進程。
Sentinel作用:
1)Master狀態檢測
2)如果Master異常,則會進行Master-Slave切換,將其中一個Slave作為Master,將之前的Master作為Slave。
3)Master-Slave切換后,master_redis.conf、slave_redis.conf和sentinel.conf的內容都會發生改變,即master_redis.conf中會多一行slaveof的配置,sentinel.conf的監控目標會隨之調換。
Sentinel工作方式(每個Sentinel實例都執行的定時任務)
1)每個Sentinel以每秒鍾一次的頻率向它所知的Master,Slave以及其他 Sentinel 實例發送一個PING命令。
2)如果一個實例(instance)距離最后一次有效回復PING命令的時間超過 own-after-milliseconds 選項所指定的值,則這個實例會被Sentinel標記為主觀下線。
3)如果一個Master被標記為主觀下線,則正在監視這個Master的所有 Sentinel 要以每秒一次的頻率確認Master的確進入了主觀下線狀態。
4)當有足夠數量的Sentinel(大於等於配置文件指定的值)在指定的時間范圍內確認Master的確進入了主觀下線狀態,則Master會被標記為客觀下線。
5)在一般情況下,每個Sentinel 會以每10秒一次的頻率向它已知的所有Master,Slave發送 INFO 命令。
6)當Master被Sentinel標記為客觀下線時,Sentinel 向下線的 Master 的所有Slave發送 INFO命令的頻率會從10秒一次改為每秒一次。
7)若沒有足夠數量的Sentinel同意Master已經下線,Master的客觀下線狀態就會被移除。 若 Master重新向Sentinel 的PING命令返回有效回復,Master的主觀下線狀態就會被移除。
三個定時任務
sentinel在內部有3個定時任務
1)每10秒每個sentinel會對master和slave執行info命令,這個任務達到兩個目的:
a)發現slave節點
b)確認主從關系
2)每2秒每個sentinel通過master節點的channel交換信息(pub/sub)。master節點上有一個發布訂閱的頻道(__sentinel__:hello)。sentinel節點通過__sentinel__:hello頻道進行信息交換(對節點的"看法"和自身的信息),達成共識。
3)每1秒每個sentinel對其他sentinel和redis節點執行ping操作(相互監控),這個其實是一個心跳檢測,是失敗判定的依據。
主觀下線
所謂主觀下線(Subjectively Down, 簡稱 SDOWN)指的是單個Sentinel實例對服務器做出的下線判斷,即單個sentinel認為某個服務下線(有可能是接收不到訂閱,之間的網絡不通等等原因)。
主觀下線就是說如果服務器在down-after-milliseconds給定的毫秒數之內, 沒有返回 Sentinel 發送的 PING 命令的回復, 或者返回一個錯誤, 那么 Sentinel 將這個服務器標記為主觀下線(SDOWN )。
sentinel會以每秒一次的頻率向所有與其建立了命令連接的實例(master,從服務,其他sentinel)發ping命令,通過判斷ping回復是有效回復,還是無效回復來判斷實例時候在線(對該sentinel來說是“主觀在線”)。
sentinel配置文件中的down-after-milliseconds設置了判斷主觀下線的時間長度,如果實例在down-after-milliseconds毫秒內,返回的都是無效回復,那么sentinel回認為該實例已(主觀)下線,修改其flags狀態為SRI_S_DOWN。如果多個sentinel監視一個服務,有可能存在多個sentinel的down-after-milliseconds配置不同,這個在實際生產中要注意。
客觀下線
客觀下線(Objectively Down, 簡稱 ODOWN)指的是多個 Sentinel 實例在對同一個服務器做出 SDOWN 判斷, 並且通過 SENTINEL is-master-down-by-addr 命令互相交流之后, 得出的服務器下線判斷,然后開啟failover。
客觀下線就是說只有在足夠數量的 Sentinel 都將一個服務器標記為主觀下線之后, 服務器才會被標記為客觀下線(ODOWN)。
只有當master被認定為客觀下線時,才會發生故障遷移。
當sentinel監視的某個服務主觀下線后,sentinel會詢問其它監視該服務的sentinel,看它們是否也認為該服務主觀下線,接收到足夠數量(這個值可以配置)的sentinel判斷為主觀下線,既任務該服務客觀下線,並對其做故障轉移操作。
sentinel通過發送 SENTINEL is-master-down-by-addr ip port current_epoch runid,(ip:主觀下線的服務id,port:主觀下線的服務端口,current_epoch:sentinel的紀元,runid:*表示檢測服務下線狀態,如果是sentinel 運行id,表示用來選舉領頭sentinel)來詢問其它sentinel是否同意服務下線。
一個sentinel接收另一個sentinel發來的is-master-down-by-addr后,提取參數,根據ip和端口,檢測該服務時候在該sentinel主觀下線,並且回復is-master-down-by-addr,回復包含三個參數:down_state(1表示已下線,0表示未下線),leader_runid(領頭sentinal id),leader_epoch(領頭sentinel紀元)。
sentinel接收到回復后,根據配置設置的下線最小數量,達到這個值,既認為該服務客觀下線。
客觀下線條件只適用於主服務器: 對於任何其他類型的 Redis 實例, Sentinel 在將它們判斷為下線前不需要進行協商, 所以從服務器或者其他 Sentinel 永遠不會達到客觀下線條件。只要一個 Sentinel 發現某個主服務器進入了客觀下線狀態, 這個 Sentinel 就可能會被其他 Sentinel 推選出, 並對失效的主服務器執行自動故障遷移操作。
在redis-sentinel的conf文件里有這么兩個配置:
1)sentinel monitor <masterName> <ip> <port> <quorum>
四個參數含義:
masterName這個是對某個master+slave組合的一個區分標識(一套sentinel是可以監聽多套master+slave這樣的組合的)。
ip 和 port 就是master節點的 ip 和 端口號。
quorum這個參數是進行客觀下線的一個依據,意思是至少有 quorum 個sentinel主觀的認為這個master有故障,才會對這個master進行下線以及故障轉移。因為有的時候,某個sentinel節點可能因為自身網絡原因,導致無法連接master,而此時master並沒有出現故障,所以這就需要多個sentinel都一致認為該master有問題,才可以進行下一步操作,這就保證了公平性和高可用。
2)sentinel down-after-milliseconds <masterName> <timeout>
這個配置其實就是進行主觀下線的一個依據,masterName這個參數不用說了,timeout是一個毫秒值,表示:如果這台sentinel超過timeout這個時間都無法連通master包括slave(slave不需要客觀下線,因為不需要故障轉移)的話,就會主觀認為該master已經下線(實際下線需要客觀下線的判斷通過才會下線)
那么,多個sentinel之間是如何達到共識的呢?
這就是依賴於前面說的第二個定時任務,某個sentinel先將master節點進行一個主觀下線,然后會將這個判定通過sentinel is-master-down-by-addr這個命令問對應的節點是否也同樣認為該addr的master節點要做客觀下線。最后當達成這一共識的sentinel個數達到前面說的quorum設置的這個值時,就會對該master節點下線進行故障轉移。quorum的值一般設置為sentinel個數的二分之一加1,例如3個sentinel就設置2。
主觀下線(SDOWN)和客觀下線(ODOWN)的更多細節
sentinel對於不可用有兩種不同的看法,一個叫主觀不可用(SDOWN),另外一個叫客觀不可用(ODOWN)。SDOWN是sentinel自己主觀上檢測到的關於master的狀態,ODOWN需要一定數量的sentinel達成一致意見才能認為一個master客觀上已經宕掉,各個sentinel之間通過命令SENTINEL is_master_down_by_addr來獲得其它sentinel對master的檢測結果。
從sentinel的角度來看,如果發送了PING心跳后,在一定時間內沒有收到合法的回復,就達到了SDOWN的條件。這個時間在配置中通過is-master-down-after-milliseconds參數配置。
當sentinel發送PING后,以下回復之一都被認為是合法的:
PING replied with +PONG.
PING replied with -LOADING error.
PING replied with -MASTERDOWN error.
其它任何回復(或者根本沒有回復)都是不合法的。
從SDOWN切換到ODOWN不需要任何一致性算法,只需要一個gossip協議:如果一個sentinel收到了足夠多的sentinel發來消息告訴它某個master已經down掉了,SDOWN狀態就會變成ODOWN狀態。如果之后master可用了,這個狀態就會相應地被清理掉。
正如之前已經解釋過了,真正進行failover需要一個授權的過程,但是所有的failover都開始於一個ODOWN狀態。
ODOWN狀態只適用於master,對於不是master的redis節點sentinel之間不需要任何協商,slaves和sentinel不會有ODOWN狀態。
配置版本號
為什么要先獲得大多數sentinel的認可時才能真正去執行failover呢?
當一個sentinel被授權后,它將會獲得宕掉的master的一份最新配置版本號,當failover執行結束以后,這個版本號將會被用於最新的配置。因為大多數sentinel都已經知道該版本號已經被要執行failover的sentinel拿走了,所以其他的sentinel都不能再去使用這個版本號。這意味着,每次failover都會附帶有一個獨一無二的版本號。我們將會看到這樣做的重要性。而且,sentinel集群都遵守一個規則:如果sentinel A推薦sentinel B去執行failover,B會等待一段時間后,自行再次去對同一個master執行failover,這個等待的時間是通過failover-timeout配置項去配置的。從這個規則可以看出,sentinel集群中的sentinel不會再同一時刻並發去failover同一個master,第一個進行failover的sentinel如果失敗了,另外一個將會在一定時間內進行重新進行failover,以此類推。
redis sentinel保證了活躍性:如果大多數sentinel能夠互相通信,最終將會有一個被授權去進行failover.
redis sentinel也保證了安全性:每個試圖去failover同一個master的sentinel都會得到一個獨一無二的版本號。
配置傳播
一旦一個sentinel成功地對一個master進行了failover,它將會把關於master的最新配置通過廣播形式通知其它sentinel,其它的sentinel則更新對應master的配置。
一個faiover要想被成功實行,sentinel必須能夠向選為master的slave發送SLAVEOF NO ONE命令,然后能夠通過INFO命令看到新master的配置信息。
當將一個slave選舉為master並發送SLAVEOF NO ONE后,即使其它的slave還沒針對新master重新配置自己,failover也被認為是成功了的,然后所有sentinels將會發布新的配置信息。
新配在集群中相互傳播的方式,就是為什么我們需要當一個sentinel進行failover時必須被授權一個版本號的原因。
每個sentinel使用##發布/訂閱##的方式持續地傳播master的配置版本信息,配置傳播的##發布/訂閱##管道是:__sentinel__:hello。
因為每一個配置都有一個版本號,所以以版本號最大的那個為標准。
舉個例子:
假設有一個名為mymaster的地址為192.168.10.202:6379。一開始,集群中所有的sentinel都知道這個地址,於是為mymaster的配置打上版本號1。一段時候后mymaster死了,有一個sentinel被授權用版本號2對其進行failover。如果failover成功了,假設地址改為了192.168.10.202:9000,此時配置的版本號為2,進行failover的sentinel會將新配置廣播給其他的sentinel,由於其他sentinel維護的版本號為1,發現新配置的版本號為2時,版本號變大了,說明配置更新了,於是就會采用最新的版本號為2的配置。
這意味着sentinel集群保證了第二種活躍性:一個能夠互相通信的sentinel集群最終會采用版本號最高且相同的配置。
sentinel的"仲裁會"
前面我們談到,當一個master被sentinel集群監控時,需要為它指定一個參數,這個參數指定了當需要判決master為不可用,並且進行failover時,所需要的sentinel數量,可以稱這個參數為票數
不過,當failover主備切換真正被觸發后,failover並不會馬上進行,還需要sentinel中的大多數sentinel授權后才可以進行failover。
當ODOWN時,failover被觸發。failover一旦被觸發,嘗試去進行failover的sentinel會去獲得“大多數”sentinel的授權(如果票數比大多數還要大的時候,則詢問更多的sentinel)
這個區別看起來很微妙,但是很容易理解和使用。例如,集群中有5個sentinel,票數被設置為2,當2個sentinel認為一個master已經不可用了以后,將會觸發failover,但是,進行failover的那個sentinel必須先獲得至少3個sentinel的授權才可以實行failover。
如果票數被設置為5,要達到ODOWN狀態,必須所有5個sentinel都主觀認為master為不可用,要進行failover,那么得獲得所有5個sentinel的授權。
選舉領頭sentinel(即領導者選舉)
一個redis服務被判斷為客觀下線時,多個監視該服務的sentinel協商,選舉一個領頭sentinel,對該redis服務進行故障轉移操作。選舉領頭sentinel遵循以下規則:
1)所有的sentinel都有公平被選舉成領頭的資格。
2)所有的sentinel都有且只有一次將某個sentinel選舉成領頭的機會(在一輪選舉中),一旦選舉某個sentinel為領頭,不能更改。
3)sentinel設置領頭sentinel是先到先得,一旦當前sentinel設置了領頭sentinel,以后要求設置sentinel為領頭請求都會被拒絕。
4)每個發現服務客觀下線的sentinel,都會要求其他sentinel將自己設置成領頭。
5)當一個sentinel(源sentinel)向另一個sentinel(目sentinel)發送is-master-down-by-addr ip port current_epoch runid命令的時候,runid參數不是*,而是sentinel運行id,就表示源sentinel要求目標sentinel選舉其為領頭。
6)源sentinel會檢查目標sentinel對其要求設置成領頭的回復,如果回復的leader_runid和leader_epoch為源sentinel,表示目標sentinel同意將源sentinel設置成領頭。
7)如果某個sentinel被半數以上的sentinel設置成領頭,那么該sentinel既為領頭。
8)如果在限定時間內,沒有選舉出領頭sentinel,暫定一段時間,再選舉。
為什么要選領導者?
簡單來說,就是因為只能有一個sentinel節點去完成故障轉移。
sentinel is-master-down-by-addr這個命令有兩個作用,一是確認下線判定,二是進行領導者選舉。
選舉過程:
1)每個做主觀下線的sentinel節點向其他sentinel節點發送上面那條命令,要求將它設置為領導者。
2)收到命令的sentinel節點如果還沒有同意過其他的sentinel發送的命令(還未投過票),那么就會同意,否則拒絕。
3)如果該sentinel節點發現自己的票數已經過半且達到了quorum的值,就會成為領導者
4)如果這個過程出現多個sentinel成為領導者,則會等待一段時間重新選舉。
Redis Sentinel的主從切換方案
Redis 2.8版開始正式提供名為Sentinel的主從切換方案,通俗的來講,Sentinel可以用來管理多個Redis服務器實例,可以實現一個功能上實現HA的集群,Sentinel主要負責三個方面的任務:
1)監控(Monitoring): Sentinel 會不斷地檢查你的主服務器和從服務器是否運作正常。
2)提醒(Notification): 當被監控的某個 Redis 服務器出現問題時, Sentinel 可以通過 API 向管理員或者其他應用程序發送通知。
3)自動故障遷移(Automatic failover): 當一個主服務器不能正常工作時, Sentinel 會開始一次自動故障遷移操作, 它會將失效主服務器的其中一個從服務器升級為新的主服務器, 並讓失效主服務器的其他從服務器改為復制新的主服務器; 當客戶端試圖連接失效的主服務器時, 集群也會向客戶端返回新主服務器的地址, 使得集群可以使用新主服務器代替失效服務器。
Redis Sentinel 是一個分布式系統, 可以在一個架構中運行多個 Sentinel 進程(progress), 這些進程使用流言協議(gossip protocols)來接收關於主服務器是否下線的信息, 並使用投票協議(agreement protocols)來決定是否執行自動故障遷移, 以及選擇哪個從服務器作為新的主服務器。
一個簡單的主從結構加sentinel集群的架構圖如下:
上圖是一主一從節點,加上兩個部署了sentinel的集群,sentinel集群之間會互相通信,溝通交流redis節點的狀態,做出相應的判斷並進行處理,這里的主觀下線狀態和客觀下線狀態是比較重要的狀態,它們決定了是否進行故障轉移
可以 通過訂閱指定的頻道信息,當服務器出現故障得時候通知管理員
客戶端可以將 Sentinel 看作是一個只提供了訂閱功能的 Redis 服務器,你不可以使用 PUBLISH 命令向這個服務器發送信息,但你可以用 SUBSCRIBE 命令或者 PSUBSCRIBE 命令, 通過訂閱給定的頻道來獲取相應的事件提醒。 一個頻道能夠接收和這個頻道的名字相同的事件。 比如說, 名為 +sdown 的頻道就可以接收所有實例進入主觀下線(SDOWN)狀態的事件。
個人認為,Sentinel實現的最主要的一個功能就是能做到自動故障遷移,即當某一個master掛了的時候,可以自動的將某一個slave提升為新的master,且原master的所有slave也都自動的將自己的master改為新提升的master,這樣我們的程序的可用性大大提高了。只要redis安裝完成,Sentinel就安裝完成了,Sentinel集成在redis里了。
Sentinel支持集群(可以部署在多台機器上,也可以在一台物理機上通過多端口實現偽集群部署)
很顯然,只使用單個sentinel進程來監控redis集群是不可靠的,當sentinel進程宕掉后(sentinel本身也有單點問題,single-point-of-failure)整個集群系統將無法按照預期的方式運行。所以有必要將sentinel集群,這樣有幾個好處:
1)即使有一些sentinel進程宕掉了,依然可以進行redis集群的主備切換;
2)如果只有一個sentinel進程,如果這個進程運行出錯,或者是網絡堵塞,那么將無法實現redis集群的主備切換(單點問題);
3)如果有多個sentinel,redis的客戶端可以隨意地連接任意一個sentinel來獲得關於redis集群中的信息。
sentinel集群注意事項
1)只有Sentinel 集群中大多數服務器認定master主觀下線時master才會被認定為客觀下線,才可以進行故障遷移,也就是說,即使不管我們在sentinel monitor中設置的數是多少,就算是滿足了該值,只要達不到大多數,就不會發生故障遷移。
2)官方建議sentinel至少部署三台,且分布在不同機器。這里主要考慮到sentinel的可用性,假如我們只部署了兩台sentinel,且quorum設置為1,也可以實現自動故障遷移,但假如其中一台sentinel掛了,就永遠不會觸發自動故障遷移,因為永遠達不到大多數sentinel認定master主觀下線了。
3)sentinel monitor配置中的master IP盡量不要寫127.0.0.1或localhost,因為客戶端,如jedis獲取master是根據這個獲取的,若這樣配置,jedis獲取的ip則是127.0.0.1,這樣就可能導致程序連接不上master
4)當sentinel 啟動后會自動的修改sentinel.conf文件,如已發現的master的slave信息,和集群中其它sentinel 的信息等,這樣即使重啟sentinel也能保持原來的狀態。注意,當集群服務器調整時,如更換sentinel的機器,或者新配置一個sentinel,請不要直接復制原來運行過得sentinel配置文件,因為其里面自動生成了以上說的那些信息,我們應該復制一個新的配置文件或者把自動生成的信息給刪掉。
5)當發生故障遷移的時候,master的變更記錄與slave更換master的修改會自動同步到redis的配置文件,這樣即使重啟redis也能保持變更后的狀態。
每個 Sentinel 都需要定期執行的任務
每個 Sentinel 以每秒鍾一次的頻率向它所知的主服務器、從服務器以及其他 Sentinel 實例發送一個 PING 命令。
如果一個實例(instance)距離最后一次有效回復 PING 命令的時間超過 down-after-milliseconds 選項所指定的值, 那么這個實例會被 Sentinel 標記為主觀下線。 一個有效回復可以是: +PONG 、 -LOADING 或者 -MASTERDOWN 。
如果一個主服務器被標記為主觀下線, 那么正在監視這個主服務器的所有 Sentinel 要以每秒一次的頻率確認主服務器的確進入了主觀下線狀態。
如果一個主服務器被標記為主觀下線, 並且有足夠數量的 Sentinel (至少要達到配置文件指定的數量)在指定的時間范圍內同意這一判斷, 那么這個主服務器被標記為客觀下線。
在一般情況下, 每個 Sentinel 會以每 10 秒一次的頻率向它已知的所有主服務器和從服務器發送 INFO 命令。 當一個主服務器被 Sentinel 標記為客觀下線時, Sentinel 向下線主服務器的所有從服務器發送 INFO 命令的頻率會從 10 秒一次改為每秒一次。
當沒有足夠數量的 Sentinel 同意主服務器已經下線, 主服務器的客觀下線狀態就會被移除。 當主服務器重新向 Sentinel 的PING 命令返回有效回復時, 主服務器的主管下線狀態就會被移除。
Sentinel之間和Slaves之間的自動發現機制
雖然sentinel集群中各個sentinel都互相連接彼此來檢查對方的可用性以及互相發送消息。但是你不用在任何一個sentinel配置任何其它的sentinel的節點。因為sentinel利用了master的發布/訂閱機制去自動發現其它也監控了統一master的sentinel節點。
通過向名為__sentinel__:hello的管道中發送消息來實現。
同樣,你也不需要在sentinel中配置某個master的所有slave的地址,sentinel會通過詢問master來得到這些slave的地址的。
每個sentinel通過向每個master和slave的發布/訂閱頻道__sentinel__:hello每秒發送一次消息,來宣布它的存在。
每個sentinel也訂閱了每個master和slave的頻道__sentinel__:hello的內容,來發現未知的sentinel,當檢測到了新的sentinel,則將其加入到自身維護的master監控列表中。
每個sentinel發送的消息中也包含了其當前維護的最新的master配置。如果某個sentinel發現
自己的配置版本低於接收到的配置版本,則會用新的配置更新自己的master配置。
在為一個master添加一個新的sentinel前,sentinel總是檢查是否已經有sentinel與新的sentinel的進程號或者是地址是一樣的。如果是那樣,這個sentinel將會被刪除,而把新的sentinel添加上去。
sentinel和redis身份驗證
當一個master配置為需要密碼才能連接時,客戶端和slave在連接時都需要提供密碼。
master通過requirepass設置自身的密碼,不提供密碼無法連接到這個master。
slave通過masterauth來設置訪問master時的密碼。
但是當使用了sentinel時,由於一個master可能會變成一個slave,一個slave也可能會變成master,所以需要同時設置上述兩個配置項。
Sentinel API
在默認情況下, Sentinel 使用 TCP 端口 26379 (普通 Redis 服務器使用的是 6379 )。Sentinel 接受 Redis 協議格式的命令請求, 所以你可以使用 redis-cli 或者任何其他 Redis 客戶端來與 Sentinel 進行通訊。有兩種方式可以和 Sentinel 進行通訊:
1)是通過直接發送命令來查詢被監視 Redis 服務器的當前狀態, 以及 Sentinel 所知道的關於其他 Sentinel 的信息, 諸如此類。
2)是使用發布與訂閱功能, 通過接收 Sentinel 發送的通知: 當執行故障轉移操作, 或者某個被監視的服務器被判斷為主觀下線或者客觀下線時, Sentinel 就會發送相應的信息。
Sentinel命令(即登錄到sentinel節點后執行的命令,比如執行"redis-cli -h 192.168.10.203 -p 26379"命令后,才可以執行下面命令)
PING :返回 PONG 。
SENTINEL masters :列出所有被監視的主服務器,以及這些主服務器的當前狀態;
SENTINEL slaves <master name> :列出給定主服務器的所有從服務器,以及這些從服務器的當前狀態;
SENTINEL get-master-addr-by-name <master name> : 返回給定名字的主服務器的 IP 地址和端口號。 如果這個主服務器正在執行故障轉移操作, 或者針對這個主服務器的故障轉移操作已經完成, 那么這個命令返回新的主服務器的 IP 地址和端口號;
SENTINEL reset <pattern> : 重置所有名字和給定模式 pattern 相匹配的主服務器。 pattern 參數是一個 Glob 風格的模式。 重置操作清楚主服務器目前的所有狀態, 包括正在執行中的故障轉移, 並移除目前已經發現和關聯的, 主服務器的所有從服務器和 Sentinel ;
SENTINEL failover <master name> : 當主服務器失效時, 在不詢問其他 Sentinel 意見的情況下, 強制開始一次自動故障遷移。 (不過發起故障轉移的 Sentinel 會向其他 Sentinel 發送一個新的配置,其他 Sentinel 會根據這個配置進行相應的更新)
SENTINEL MONITOR <name> <ip> <port> <quorum> 這個命令告訴sentinel去監聽一個新的master
SENTINEL REMOVE <name> 命令sentinel放棄對某個master的監聽
SENTINEL SET <name> <option> <value> 這個命令很像Redis的CONFIG SET命令,用來改變指定master的配置。支持多個<option><value>。例如以下實例:SENTINEL SET objects-cache-master down-after-milliseconds 1000
只要是配置文件中存在的配置項,都可以用SENTINEL SET命令來設置。這個還可以用來設置master的屬性,比如說quorum(票數),而不需要先刪除master,再重新添加master。例如:SENTINEL SET objects-cache-master quorum 5
客戶端可以通過SENTINEL get-master-addr-by-name <master name>獲取當前的主服務器IP地址和端口號,以及SENTINEL slaves <master name>獲取所有的Slaves信息。
[root@redis-master ~]# redis-cli -h 192.168.10.202 -p 6379 INFO|grep role role:slave [root@redis-master ~]# redis-cli -h 192.168.10.203 -p 6379 INFO|grep role role:slave [root@redis-master ~]# redis-cli -h 192.168.10.205 -p 6379 INFO|grep role role:master 登錄任意一個節點的sentinel,進行相關命令的操作(下面命令例子中的redisMaster是sentinel監控redis主從狀態時定義的master名稱) 1)sentinel masters 羅列所有sentinel 監視相關的master [root@redis-master ~]# redis-cli -h 192.168.10.205 -p 26379 192.168.10.205:26379> sentinel masters 2)sentinel master masterName 列出一個master相關的的信息 [root@redis-master ~]# redis-cli -h 192.168.10.205 -p 26379 192.168.10.205:26379> sentinel master redisMaster 3)sentinel slaves masterName 列出一個master相應的slave組相關的數據 [root@redis-master ~]# redis-cli -h 192.168.10.205 -p 26379 192.168.10.205:26379> sentinel slaves redisMaster 4)sentinel sentinels masterName 列出master相關的sentinels組其他相關的信息 [root@redis-master ~]# redis-cli -h 192.168.10.205 -p 26379 192.168.10.205:26379> sentinel sentinels redisMaster 5)sentinel get-master-addr-by-name masterName 獲取master-name相關的 ip addr 的信息 [root@redis-master ~]# redis-cli -h 192.168.10.205 -p 26379 192.168.10.205:26379> sentinel get-master-addr-by-name redisMaster 1) "192.168.10.205" 2) "6379"
增加或刪除Sentinel
由於有sentinel自動發現機制,所以添加一個sentinel到你的集群中非常容易,你所需要做的只是監控到某個Master上,然后新添加的sentinel就能獲得其他sentinel的信息以及master所有的slaves。
如果你需要添加多個sentinel,建議你一個接着一個添加,這樣可以預防網絡隔離帶來的問題。你可以每個30秒添加一個sentinel。最后你可以用SENTINEL MASTER mastername來檢查一下是否所有的sentinel都已經監控到了master。
刪除一個sentinel顯得有點復雜:因為sentinel永遠不會刪除一個已經存在過的sentinel,即使它已經與組織失去聯系很久了。
要想刪除一個sentinel,應該遵循如下步驟:
1)停止所要刪除的sentinel
2)發送一個SENTINEL RESET * 命令給所有其它的sentinel實例,如果你想要重置指定master上面的sentinel,只需要把*號改為特定的名字,注意,需要一個接一個發,每次發送的間隔不低於30秒。
3)檢查一下所有的sentinels是否都有一致的當前sentinel數。使用SENTINEL MASTER mastername 來查詢。
刪除舊master或者不可達slave
sentinel永遠會記錄好一個Master的slaves,即使slave已經與組織失聯好久了。這是很有用的,因為sentinel集群必須有能力把一個恢復可用的slave進行重新配置。
並且,failover后,失效的master將會被標記為新master的一個slave,這樣的話,當它變得可用時,就會從新master上復制數據。
然后,有時候你想要永久地刪除掉一個slave(有可能它曾經是個master),你只需要發送一個SENTINEL RESET master命令給所有的sentinels,它們將會更新列表里能夠正確地復制master數據的slave。
發布與訂閱信息(sentinel的日志文件里可以看到這些信息)
客戶端可以將 Sentinel 看作是一個只提供了訂閱功能的 Redis 服務器: 你不可以使用 PUBLISH 命令向這個服務器發送信息, 但你可以用 SUBSCRIBE 命令或者 PSUBSCRIBE 命令, 通過訂閱給定的頻道來獲取相應的事件提醒。
一個頻道能夠接收和這個頻道的名字相同的事件。 比如說, 名為 +sdown 的頻道就可以接收所有實例進入主觀下線(SDOWN)狀態的事件。
通過執行 "PSUBSCRIBE * "命令可以接收所有事件信息(即訂閱所有消息)。
以下列出的是客戶端可以通過訂閱來獲得的頻道和信息的格式: 第一個英文單詞是頻道/事件的名字, 其余的是數據的格式。
注意, 當格式中包含 instance details 字樣時, 表示頻道所返回的信息中包含了以下用於識別目標實例的內容.
以下是所有可以收到的消息的消息格式,如果你訂閱了所有消息的話。第一個單詞是頻道的名字,其它是數據的格式。
注意:以下的instance details的格式是:
<instance-type> <name> <ip> <port> @ <master-name> <master-ip> <master-port>
如果這個redis實例是一個master,那么@之后的消息就不會顯示。
+reset-master <instance details> -- 當master被重置時. +slave <instance details> -- 當檢測到一個slave並添加進slave列表時. +failover-state-reconf-slaves <instance details> -- Failover狀態變為reconf-slaves狀態時 +failover-detected <instance details> -- 當failover發生時 +slave-reconf-sent <instance details> -- sentinel發送SLAVEOF命令把它重新配置時 +slave-reconf-inprog <instance details> -- slave被重新配置為另外一個master的slave,但數據復制還未發生時。 +slave-reconf-done <instance details> -- slave被重新配置為另外一個master的slave並且數據復制已經與master同步時。 -dup-sentinel <instance details> -- 刪除指定master上的冗余sentinel時 (當一個sentinel重新啟動時,可能會發生這個事件). +sentinel <instance details> -- 當master增加了一個sentinel時。 +sdown <instance details> -- 進入SDOWN狀態時; -sdown <instance details> -- 離開SDOWN狀態時。 +odown <instance details> -- 進入ODOWN狀態時。 -odown <instance details> -- 離開ODOWN狀態時。 +new-epoch <instance details> -- 當前配置版本被更新時。 +try-failover <instance details> -- 達到failover條件,正等待其他sentinel的選舉。 +elected-leader <instance details> -- 被選舉為去執行failover的時候。 +failover-state-select-slave <instance details> -- 開始要選擇一個slave當選新master時。 no-good-slave <instance details> -- 沒有合適的slave來擔當新master selected-slave <instance details> -- 找到了一個適合的slave來擔當新master failover-state-send-slaveof-noone <instance details> -- 當把選擇為新master的slave的身份進行切換的時候。 failover-end-for-timeout <instance details> -- failover由於超時而失敗時。 failover-end <instance details> -- failover成功完成時。 switch-master <master name> <oldip> <oldport> <newip> <newport> -- 當master的地址發生變化時。通常這是客戶端最感興趣的消息了。 +tilt -- 進入Tilt模式。 -tilt -- 退出Tilt模式。
可以看出,使用Sentinel命令和發布訂閱兩種機制就能很好的實現和客戶端的集成整合:
使用get-master-addr-by-name和slaves指令可以獲取當前的Master和Slaves的地址和信息;而當發生故障轉移時,即Master發生切換,可以通過訂閱的+switch-master事件獲得最新的Master信息。
sentinel.conf中的notification-script
在sentinel.conf中可以配置多個sentinel notification-script <master name> <shell script-path>, 如sentinel notification-script mymaster ./check.sh
這個是在群集failover時會觸發執行指定的腳本。腳本的執行結果若為1,即稍后重試(最大重試次數為10);若為2,則執行結束。並且腳本最大執行時間為60秒,超時會被終止執行。
目前會存在該腳本被執行多次的問題,網上查找資料獲得的解釋是:腳本分為兩個級別, SENTINEL_LEADER 和 SENTINEL_OBSERVER ,前者僅由領頭 Sentinel 執行(一個 Sentinel),而后者由監視同一個 master 的所有 Sentinel 執行(多個 Sentinel)。
無failover時的配置糾正
即使當前沒有failover正在進行,sentinel依然會使用當前配置去設置監控的master。特別是:
1)根據最新配置確認為slaves的節點卻聲稱自己是master(上文例子中被網絡隔離后的的redis3),這時它們會被重新配置為當前master的slave。
2)如果slaves連接了一個錯誤的master,將會被改正過來,連接到正確的master。
Slave選舉與優先級
當一個sentinel准備好了要進行failover,並且收到了其他sentinel的授權,那么就需要選舉出一個合適的slave來做為新的master。
slave的選舉主要會評估slave的以下幾個方面:
1)與master斷開連接的次數
2)Slave的優先級
3)數據復制的下標(用來評估slave當前擁有多少master的數據)
4)進程ID
如果一個slave與master失去聯系超過10次,並且每次都超過了配置的最大失聯時間(down-after-milliseconds),如果sentinel在進行failover時發現slave失聯,那么這個slave就會被sentinel認為不適合用來做新master的。
更嚴格的定義是,如果一個slave持續斷開連接的時間超過
(down-after-milliseconds * 10) + milliseconds_since_master_is_in_SDOWN_state
就會被認為失去選舉資格。
符合上述條件的slave才會被列入master候選人列表,並根據以下順序來進行排序:
1)sentinel首先會根據slaves的優先級來進行排序,優先級越小排名越靠前。
2)如果優先級相同,則查看復制的下標,哪個從master接收的復制數據多,哪個就靠前。
3)如果優先級和下標都相同,就選擇進程ID較小的那個。
一個redis無論是master還是slave,都必須在配置中指定一個slave優先級。要注意到master也是有可能通過failover變成slave的。
如果一個redis的slave優先級配置為0,那么它將永遠不會被選為master。但是它依然會從master哪里復制數據。
故障轉移
所謂故障轉移就是當master宕機,選一個合適的slave來晉升為master的操作,redis-sentinel會自動完成這個,不需要我們手動來實現。
一次故障轉移操作大致分為以下流程:
發現主服務器已經進入客觀下線狀態。
對我們的當前集群進行自增, 並嘗試在這個集群中當選。
如果當選失敗, 那么在設定的故障遷移超時時間的兩倍之后, 重新嘗試當選。 如果當選成功, 那么執行以下步驟:
選出一個從服務器,並將它升級為主服務器。
向被選中的從服務器發送 SLAVEOF NO ONE 命令,讓它轉變為主服務器。
通過發布與訂閱功能, 將更新后的配置傳播給所有其他 Sentinel , 其他 Sentinel 對它們自己的配置進行更新。
向已下線主服務器的從服務器發送 SLAVEOF 命令, 讓它們去復制新的主服務器。
當所有從服務器都已經開始復制新的主服務器時, 領頭 Sentinel 終止這次故障遷移操作。
每當一個 Redis 實例被重新配置(reconfigured) —— 無論是被設置成主服務器、從服務器、又或者被設置成其他主服務器的從服務器 —— Sentinel 都會向被重新配置的實例發送一個 CONFIG REWRITE 命令, 從而確保這些配置會持久化在硬盤里。
Sentinel 使用以下規則來選擇新的主服務器:
在失效主服務器屬下的從服務器當中, 那些被標記為主觀下線、已斷線、或者最后一次回復 PING 命令的時間大於五秒鍾的從服務器都會被淘汰。
在失效主服務器屬下的從服務器當中, 那些與失效主服務器連接斷開的時長超過 down-after 選項指定的時長十倍的從服務器都會被淘汰。
在經歷了以上兩輪淘汰之后剩下來的從服務器中, 我們選出復制偏移量(replication offset)最大的那個從服務器作為新的主服務器; 如果復制偏移量不可用, 或者從服務器的復制偏移量相同, 那么帶有最小運行 ID 的那個從服務器成為新的主服務器。
Sentinel 自動故障遷移的一致性特質
Sentinel 自動故障遷移使用 Raft 算法來選舉領頭(leader) Sentinel , 從而確保在一個給定的紀元(epoch)里, 只有一個領頭產生。
這表示在同一個紀元中, 不會有兩個 Sentinel 同時被選中為領頭, 並且各個 Sentinel 在同一個紀元中只會對一個領頭進行投票。
更高的配置紀元總是優於較低的紀元, 因此每個 Sentinel 都會主動使用更新的紀元來代替自己的配置。
簡單來說, 可以將 Sentinel 配置看作是一個帶有版本號的狀態。 一個狀態會以最后寫入者勝出(last-write-wins)的方式(也即是,最新的配置總是勝出)傳播至所有其他 Sentinel 。
舉個例子, 當出現網絡分割(network partitions)時, 一個 Sentinel 可能會包含了較舊的配置, 而當這個 Sentinel 接到其他 Sentinel 發來的版本更新的配置時, Sentinel 就會對自己的配置進行更新。
如果要在網絡分割出現的情況下仍然保持一致性, 那么應該使用 min-slaves-to-write 選項, 讓主服務器在連接的從實例少於給定數量時停止執行寫操作, 與此同時, 應該在每個運行 Redis 主服務器或從服務器的機器上運行 Redis Sentinel 進程。
Sentinel 狀態的持久化
Sentinel 的狀態會被持久化在 Sentinel 配置文件里面。每當 Sentinel 接收到一個新的配置, 或者當領頭 Sentinel 為主服務器創建一個新的配置時, 這個配置會與配置紀元一起被保存到磁盤里面。這意味着停止和重啟 Sentinel 進程都是安全的。
Sentinel 在非故障遷移的情況下對實例進行重新配置
即使沒有自動故障遷移操作在進行, Sentinel 總會嘗試將當前的配置設置到被監視的實例上面。 特別是:
根據當前的配置, 如果一個從服務器被宣告為主服務器, 那么它會代替原有的主服務器, 成為新的主服務器, 並且成為原有主服務器的所有從服務器的復制對象。
那些連接了錯誤主服務器的從服務器會被重新配置, 使得這些從服務器會去復制正確的主服務器。
不過, 在以上這些條件滿足之后, Sentinel 在對實例進行重新配置之前仍然會等待一段足夠長的時間, 確保可以接收到其他 Sentinel 發來的配置更新, 從而避免自身因為保存了過期的配置而對實例進行了不必要的重新配置。
總結來說,故障轉移分為三個步驟:
1)從下線的主服務的所有從服務里面挑選一個從服務,將其轉成主服務
sentinel狀態數據結構中保存了主服務的所有從服務信息,領頭sentinel按照如下的規則從從服務列表中挑選出新的主服務;
刪除列表中處於下線狀態的從服務;
刪除最近5秒沒有回復過領頭sentinel info信息的從服務;
刪除與已下線的主服務斷開連接時間超過 down-after-milliseconds*10毫秒的從服務,這樣就能保留從的數據比較新(沒有過早的與主斷開連接);
領頭sentinel從剩下的從列表中選擇優先級高的,如果優先級一樣,選擇偏移量最大的(偏移量大說明復制的數據比較新),如果偏移量一樣,選擇運行id最小的從服務。
2)已下線主服務的所有從服務改為復制新的主服務
挑選出新的主服務之后,領頭sentinel 向原主服務的從服務發送 slaveof 新主服務 的命令,復制新master。
3)將已下線的主服務設置成新的主服務的從服務,當其回復正常時,復制新的主服務,變成新的主服務的從服務
同理,當已下線的服務重新上線時,sentinel會向其發送slaveof命令,讓其成為新主的從。
溫馨提示:還可以向任意sentinel發生sentinel failover <masterName> 進行手動故障轉移,這樣就不需要經過上述主客觀和選舉的過程。
sentinel.conf文件配置參數解釋
1)sentinel monitor mymaster 192.168.10.202 6379 2 Sentine監聽的maste地址,第一個參數是給master起的名字,第二個參數為master IP,第三個為master端口,第四個為當該master掛了的時候,若想將該master判為失效, 在Sentine集群中必須至少2個Sentine同意才行,只要該數量不達標,則就不會發生故障遷移。也就是說只要有2個sentinel認為master下線,就認為該master客觀下線, 啟動failover並選舉產生新的master。通常最后一個參數不能多於啟動的sentinel實例數。 這個配置是sentinel需要監控的master/slaver信息,格式為sentinel monitor <mastername> <masterIP> <masterPort> <quorum> 其中<quorum>應該小於集群中slave的個數,當失效的節點數超過了<quorum>,則認為整個體系結構失效 不過要注意, 無論你設置要多少個 Sentinel 同意才能判斷一個服務器失效, 一個 Sentinel 都需要獲得系統中多數(majority) Sentinel 的支持, 才能發起一次自動故障遷移, 並預留一個給定的配置紀元 (configuration Epoch ,一個配置紀元就是一個新主服務器配置的版本號)。 換句話說, 在只有少數(minority) Sentinel 進程正常運作的情況下, Sentinel 是不能執行自動故障遷移的。 ----------------------------------------------------------------------------------------------- 2)sentinel down-after-milliseconds mymaster 30000 表示master被當前sentinel實例認定為失效的間隔時間。 master在多長時間內一直沒有給Sentine返回有效信息,則認定該master主觀下線。也就是說如果多久沒聯系上redis-servevr,認為這個redis-server進入到失效(SDOWN)狀態。 如果服務器在給定的毫秒數之內, 沒有返回 Sentinel 發送的 PING 命令的回復, 或者返回一個錯誤, 那么 Sentinel 將這個服務器標記為主觀下線(subjectively down,簡稱 SDOWN )。 不過只有一個 Sentinel 將服務器標記為主觀下線並不一定會引起服務器的自動故障遷移: 只有在足夠數量的 Sentinel 都將一個服務器標記為主觀下線之后, 服務器才會被標記為客觀下線 (objectively down, 簡稱 ODOWN ), 這時自動故障遷移才會執行。 將服務器標記為客觀下線所需的 Sentinel 數量由對主服務器的配置決定。 ----------------------------------------------------------------------------------------------- 3)sentinel parallel-syncs mymaster 2 當在執行故障轉移時,設置幾個slave同時進行切換master,該值越大,則可能就有越多的slave在切換master時不可用,可以將該值設置為1,即一個一個來,這樣在某個 slave進行切換master同步數據時,其余的slave還能正常工作,以此保證每次只有一個從服務器處於不能處理命令請求的狀態。 parallel-syncs 選項指定了在執行故障轉移時, 最多可以有多少個從服務器同時對新的主服務器進行同步, 這個數字越小, 完成故障轉移所需的時間就越長。 如果從服務器被設置為允許使用過期數據集(參見對 redis.conf 文件中對 slave-serve-stale-data 選項的說明), 那么你可能不希望所有從服務器都在同一時間向新的主服務器發送同步請求, 因為盡管復制過程的絕大部分步驟都不會阻塞從服務器, 但從服務器在載入主服務器發來的 RDB 文件時, 仍然會造成從服務器在一段時間內不能處理命令請求: 如果全部從服務器一起對新的主 服務器進行同步, 那么就可能會造成所有從服務器在短時間內全部不可用的情況出現。 當新master產生時,同時進行"slaveof"到新master並進行"SYNC"的slave個數。 默認為1,建議保持默認值 在salve執行salveof與同步時,將會終止客戶端請求。 此值較大,意味着"集群"終止客戶端請求的時間總和和較大。 此值較小,意味着"集群"在故障轉移期間,多個salve向客戶端提供服務時仍然使用舊數據。 ----------------------------------------------------------------------------------------------- 4)sentinel can-failover mymaster yes 在sentinel檢測到O_DOWN后,是否對這台redis啟動failover機制 ----------------------------------------------------------------------------------------------- 5)sentinel auth-pass mymaster 20180408 設置sentinel連接的master和slave的密碼,這個需要和redis.conf文件中設置的密碼一樣 ----------------------------------------------------------------------------------------------- 6)sentinel failover-timeout mymaster 180000 failover過期時間,當failover開始后,在此時間內仍然沒有觸發任何failover操作,當前sentinel將會認為此次failoer失敗。 執行故障遷移超時時間,即在指定時間內沒有大多數的sentinel 反饋master下線,該故障遷移計划則失效 ----------------------------------------------------------------------------------------------- 7)sentinel config-epoch mymaster 0 選項指定了在執行故障轉移時, 最多可以有多少個從服務器同時對新的主服務器進行同步。這個數字越小, 完成故障轉移所需的時間就越長。 ----------------------------------------------------------------------------------------------- 8)sentinel notification-script mymaster /var/redis/notify.sh 當failover時,可以指定一個"通知"腳本用來告知當前集群的情況。 腳本被允許執行的最大時間為60秒,如果超時,腳本將會被終止(KILL) ----------------------------------------------------------------------------------------------- 9)sentinel leader-epoch mymaster 0 同時一時間最多0個slave可同時更新配置,建議數字不要太大,以免影響正常對外提供服務。
基於以上細節知識梳理,總結出sentinel的工作原理
首先要能理解SDOWN和ODOWN這兩個詞的含義,上面已經詳細介紹了它們倆。在此再提一下: SDOWN:subjectively down,直接翻譯的為"主觀"失效,即當前sentinel實例認為某個redis服務為"不可用"狀態. ODOWN:objectively down,直接翻譯為"客觀"失效,即多個sentinel實例都認為master處於"SDOWN"狀態,那么此時master將處於ODOWN,ODOWN可以簡單理解為master已經被集群確定 為"不可用",將會開啟failover. SDOWN適合於master和slave,但是ODOWN只會使用於master;當slave失效超過"down-after-milliseconds"后,那么所有sentinel實例都會將其標記為"SDOWN"。 1) SDOWN與ODOWN轉換過程: 每個sentinel實例在啟動后,都會和已知的slaves/master以及其他sentinels建立TCP連接,並周期性發送PING(默認為1秒) 在交互中,如果redis-server無法在"down-after-milliseconds"時間內響應或者響應錯誤信息,都會被認為此redis-server處於SDOWN狀態。 如果SDOWN的server為master,那么此時sentinel實例將會向其他sentinel間歇性(一秒)發送"is-master-down-by-addr <ip> <port>"指令並獲取響應信息,如果足夠多的 sentinel實例檢測到master處於SDOWN,那么此時當前sentinel實例標記master為ODOWN...其他sentinel實例做同樣的交互操作。 配置項"sentinel monitor <mastername> <masterip> <masterport> <quorum>",如果檢測到master處於SDOWN狀態的slave個數達到<quorum>,那么此時此sentinel實例將會認為 master處於ODOWN。每個sentinel實例將會間歇性(10秒)向master和slaves發送"INFO"指令,如果master失效且沒有新master選出時,每1秒發送一次"INFO";"INFO"的主要目的就是 獲取並確認當前集群環境中slaves和master的存活情況。 經過上述過程后,所有的sentinel對master失效達成一致后,開始failover. 2) Sentinel與slaves"自動發現"機制: 在sentinel的配置文件中(local-sentinel.conf),都指定了port,此port就是sentinel實例偵聽其他sentinel實例建立鏈接的端口.在集群穩定后,最終會每個sentinel實例之間都 會建立一個tcp鏈接,此鏈接中發送"PING"以及類似於"is-master-down-by-addr"指令集,可用用來檢測其他sentinel實例的有效性以及"ODOWN"和"failover"過程中信息的交互. 在sentinel之間建立連接之前,sentinel將會盡力和配置文件中指定的master建立連接.sentinel與master的連接中的通信主要是基於pub/sub來發布和接收信息,發布的信息內容包 括當前sentinel實例的偵聽端口: +sentinel sentinel 127.0.0.1:26579 127.0.0.1 26579 .... 發布的主題名稱為"__sentinel__:hello";同時sentinel實例也是"訂閱"此主題,以獲得其他sentinel實例的信息.由此可見,環境首次構建時,在默認master存活的情況下,所有的 sentinel實例可以通過pub/sub即可獲得所有的sentinel信息,此后每個sentinel實例即可以根據+sentinel信息中的"ip+port"和其他sentinel逐個建立tcp連接即可.不過需要提醒 的是,每個sentinel實例均會間歇性(5秒)向"__sentinel__:hello"主題中發布自己的ip+port,目的就是讓后續加入集群的sentinel實例也能或得到自己的信息。 根據上文,我們知道在master有效的情況下,即可通過"INFO"指令獲得當前master中已有的slave列表;此后任何slave加入集群,master都會向"主題中"發布"+slave 127.0.0.1:6579 ..", 那么所有的sentinel也將立即獲得slave信息,並和slave建立鏈接並通過PING檢測其存活性. 補充一下,每個sentinel實例都會保存其他sentinel實例的列表以及現存的master/slaves列表,各自的列表中不會有重復的信息(不可能出現多個tcp連接),對於sentinel將使用ip+port 做唯一性標記, 對於master/slaver將使用runid做唯一性標記,其中redis-server的runid在每次啟動時都不同. 3) Leader選舉: 其實在sentinels故障轉移中,仍然需要一個"Leader"來調度整個過程:master的選舉以及slave的重配置和同步。當集群中有多個sentinel實例時,如何選舉其中一個sentinel為leader呢? 在配置文件中"can-failover""quorum"參數,以及"is-master-down-by-addr"指令配合來完成整個過程。 A) "can-failover"用來表明當前sentinel是否可以參與"failover"過程,如果為"YES"則表明它將有能力參與"Leader"的選舉,否則它將作為"Observer",observer參與leader選舉投票但 不能被選舉; B) "quorum"不僅用來控制master ODOWN狀態確認,同時還用來選舉leader時最小"贊同票"數; C) "is-master-down-by-addr",它可以用來檢測"ip + port"的master是否已經處於SDOWN狀態,不過此指令不僅能夠獲得master是否處於SDOWN,同時它還額外的返回當前sentinel 本地"投票選舉"的Leader信息(runid); 每個sentinel實例都持有其他的sentinels信息,在Leader選舉過程中(當為leader的sentinel實例失效時,有可能master server並沒失效,注意分開理解),sentinel實例將從所有的 sentinels集合中去除"can-failover = no"和狀態為SDOWN的sentinels,在剩余的sentinels列表中按照runid按照"字典"順序排序后,取出runid最小的sentinel實例,並將它"投票選舉" 為Leader,並在其他sentinel發送的"is-master-down-by-addr"指令時將推選的runid追加到響應中。每個sentinel實例都會檢測"is-master-down-by-addr"的響應結果,如果"投票選舉"的 leader為自己,且狀態正常的sentinels實例中,"贊同者"的自己的sentinel個數不小於(>=) 50% + 1,且不小與<quorum>,那么此sentinel就會認為選舉成功且leader為自己。 在sentinel.conf文件中,我們期望有足夠多的sentinel實例配置"can-failover yes",這樣能夠確保當leader失效時,能夠選舉某個sentinel為leader,以便進行failover。如果leader無法產生, 比如較少的sentinels實例有效,那么failover過程將無法繼續. 4) failover過程: 在Leader觸發failover之前,首先wait數秒(隨即0~5),以便讓其他sentinel實例准備和調整(有可能多個leader??),如果一切正常,那么leader就需要開始將一個salve提升為master,此slave 必須為狀態良好(不能處於SDOWN/ODOWN狀態)且權重值最低(redis.conf中)的,當master身份被確認后,開始failover A)"+failover-triggered": Leader開始進行failover,此后緊跟着"+failover-state-wait-start",wait數秒。 B)"+failover-state-select-slave": Leader開始查找合適的slave C)"+selected-slave": 已經找到合適的slave D) "+failover-state-sen-slaveof-noone": Leader向slave發送"slaveof no one"指令,此時slave已經完成角色轉換,此slave即為master E) "+failover-state-wait-promotition": 等待其他sentinel確認slave F)"+promoted-slave":確認成功 G)"+failover-state-reconf-slaves": 開始對slaves進行reconfig操作。 H)"+slave-reconf-sent":向指定的slave發送"slaveof"指令,告知此slave跟隨新的master I)"+slave-reconf-inprog": 此slave正在執行slaveof + SYNC過程,如過slave收到"+slave-reconf-sent"之后將會執行slaveof操作。 J)"+slave-reconf-done": 此slave同步完成,此后leader可以繼續下一個slave的reconfig操作。循環G) K)"+failover-end": 故障轉移結束 L)"+switch-master":故障轉移成功后,各個sentinel實例開始監控新的master。
二、redis sentinel 主從切換(failover)的容災環境部署記錄
redis主從復制簡單來說:
A)Redis的復制功能是支持多個數據庫之間的數據同步。一類是主數據庫(master)一類是從數據庫(slave),主數據庫可以進行讀寫操作,當發生寫操作的時候自動將數據同步到從數據庫,而從數據庫一般是只讀的,並接收主數據庫同步過來的數據,一個主數據庫可以有多個從數據庫,而一個從數據庫只能有一個主數據庫。
B)通過redis的復制功能可以很好的實現數據庫的讀寫分離,提高服務器的負載能力。主數據庫主要進行寫操作,而從數據庫負責讀操作。
Redis主從復制流程簡圖
redis主從復制的大致過程:
1)當一個從數據庫啟動時,會向主數據庫發送sync命令,
2)主數據庫接收到sync命令后會開始在后台保存快照(執行rdb操作),並將保存期間接收到的命令緩存起來
3)當快照完成后,redis會將快照文件和所有緩存的命令發送給從數據庫。
4)從數據庫收到后,會載入快照文件並執行收到的緩存的命令。
注意:redis2.8之前的版本:當主從數據庫同步的時候從數據庫因為網絡原因斷開重連后會重新執行上述操作,不支持斷點續傳。redis2.8之后支持斷點續傳。
0)Redis主從結構支持一主多從+n個sentinel模式,信息如下:
192.168.10.202 redis-master redis(6379)、sentinel(26379) 192.168.10.203 redis-slave01 redis(6379)、sentinel(26379) 192.168.10.205 redis-slave02 redis(6379)、sentinel(26379) 關閉三個節點機器的iptables和selinux(所有節點機器上都要操作) [root@redis-master ~]# /etc/init.d/iptables stop [root@redis-master ~]# vim /etc/sysconfig/selinux ...... SELINUX=disabled [root@redis-master ~]# setenforce 0 [root@redis-master ~]# getenforce Permissive 注意:本案例采用1主2從+3 sentinel的集群模式,所有從節點的配置都一樣。
a)redis服務器上各自存在一個Sentinel,監控本機redis的運行情況,並通知給閉路環上其它的redis節點;
b)當master發生異常(例如:宕機和斷電等)導致不可運行時,Sentinel將通知給其它節點,而剩余節點上的Sentinel將重新選舉出新的master,而原來的master重新恢復正常后,則一直扮演slave角色;
c)規定整個架構體系中,master提供讀寫服務,而slave只提供讀取服務。
1)redis一鍵安裝(三個節點上都要操作)
[root@redis-master ~]# cd /usr/local/src/ [root@redis-master src]# vim install_redis.sh #!/usr/bin/env bash # It's Used to be install redis. # Created on 2018/04/08 11:18. # @author: wangshibo. # Version: 1.0 function install_redis () { ################################################################################################# cd /usr/local/src if [ ! -f " redis-4.0.1.tar.gz" ]; then wget http://download.redis.io/releases/redis-4.0.1.tar.gz fi cd /usr/local/src tar -zxvf /usr/local/src/redis-4.0.1.tar.gz cd redis-4.0.1 make PREFIX=/usr/local/redis install mkdir -p /usr/local/redis/{etc,var} rsync -avz redis.conf /usr/local/redis/etc/ sed -i 's@pidfile.*@pidfile /var/run/redis-server.pid@' /usr/local/redis/etc/redis.conf sed -i "s@logfile.*@logfile /usr/local/redis/var/redis.log@" /usr/local/redis/etc/redis.conf sed -i "s@^dir.*@dir /usr/local/redis/var@" /usr/local/redis/etc/redis.conf sed -i 's/daemonize no/daemonize yes/g' /usr/local/redis/etc/redis.conf sed -i 's/^# bind 127.0.0.1/bind 0.0.0.0/g' /usr/local/redis/etc/redis.conf ################################################################################################# } install_redis [root@redis-master src]# chmod 755 install_redis.sh [root@redis-master src]# sh -x install_redis.sh
2)redis啟停腳本(三個節點上都要操作)
[root@redis-master src]# vim /etc/init.d/redis-server #!/bin/bash # # redis - this script starts and stops the redis-server daemon # # chkconfig: - 85 15 # description: Redis is a persistent key-value database # processname: redis-server # config: /usr/local/redis/etc/redis.conf # config: /etc/sysconfig/redis # pidfile: /usr/local/redis/var/redis-server.pid # Source function library. . /etc/rc.d/init.d/functions # Source networking configuration. . /etc/sysconfig/network # Check that networking is up. [ "$NETWORKING" = "no" ] && exit 0 redis="/usr/local/redis/bin/redis-server" prog=$(basename $redis) REDIS_CONF_FILE="/usr/local/redis/etc/redis.conf" [ -f /etc/sysconfig/redis ] && . /etc/sysconfig/redis lockfile=/var/lock/subsys/redis-server start() { [ -x $redis ] || exit 5 [ -f $REDIS_CONF_FILE ] || exit 6 echo -n $"Starting $prog: " daemon $redis $REDIS_CONF_FILE retval=$? echo [ $retval -eq 0 ] && touch $lockfile return $retval } stop() { echo -n $"Stopping $prog: " killproc $prog retval=$? echo [ $retval -eq 0 ] && rm -f $lockfile return $retval } restart() { stop start } reload() { echo -n $"Reloading $prog: " killproc $redis -HUP RETVAL=$? echo } force_reload() { restart } rh_status() { status $prog } rh_status_q() { rh_status >/dev/null 2>&1 } case "$1" in start) rh_status_q && exit 0 $1 ;; stop) rh_status_q || exit 0 $1 ;; restart) $1 ;; reload) rh_status_q || exit 7 $1 ;; force-reload) force_reload ;; status) rh_status ;; condrestart|try-restart) rh_status_q || exit 0 ;; *) echo $"Usage: $0 {start|stop|status|restart|condrestart|try-restart|reload|force-reload}" exit 2 esac 執行權限 [root@redis-master src]# chmod 755 /etc/init.d/redis-server
3)redis-sentinel啟停腳本示例(三個節點上都要操作)
[root@redis-master src]# vim /etc/init.d/redis-sentinel #!/bin/bash # # redis-sentinel - this script starts and stops the redis-server sentinel daemon # # chkconfig: - 85 15 # description: Redis sentinel # processname: redis-server # config: /usr/local/redis/etc/sentinel.conf # config: /etc/sysconfig/redis # pidfile: /usr/local/redis/var/redis-sentinel.pid # Source function library. . /etc/rc.d/init.d/functions # Source networking configuration. . /etc/sysconfig/network # Check that networking is up. [ "$NETWORKING" = "no" ] && exit 0 redis="/usr/local/redis/bin/redis-sentinel" prog=$(basename $redis) REDIS_CONF_FILE="/usr/local/redis/etc/sentinel.conf" [ -f /etc/sysconfig/redis ] && . /etc/sysconfig/redis lockfile=/var/lock/subsys/redis-sentinel start() { [ -x $redis ] || exit 5 [ -f $REDIS_CONF_FILE ] || exit 6 echo -n $"Starting $prog: " daemon $redis $REDIS_CONF_FILE --sentinel retval=$? echo [ $retval -eq 0 ] && touch $lockfile return $retval } stop() { echo -n $"Stopping $prog: " killproc $prog retval=$? echo [ $retval -eq 0 ] && rm -f $lockfile return $retval } restart() { stop start } reload() { echo -n $"Reloading $prog: " killproc $redis -HUP RETVAL=$? echo } force_reload() { restart } rh_status() { status $prog } rh_status_q() { rh_status >/dev/null 2>&1 } case "$1" in start) rh_status_q && exit 0 $1 ;; stop) rh_status_q || exit 0 $1 ;; restart) $1 ;; reload) rh_status_q || exit 7 $1 ;; force-reload) force_reload ;; status) rh_status ;; condrestart|try-restart) rh_status_q || exit 0 ;; *) echo $"Usage: $0 {start|stop|status|restart|condrestart|try-restart|reload|force-reload}" exit 2 esac 執行權限: [root@redis-master src]# chmod 755 /etc/init.d/redis-sentinel
4)配置redis.conf
a)編輯redis-master主節點的redis.conf文件 [root@redis-master src]# mkdir -p /usr/local/redis/data/redis [root@redis-master src]# cp /usr/local/redis/etc/redis.conf /usr/local/redis/etc/redis.conf.bak [root@redis-master src]# vim /usr/local/redis/etc/redis.conf bind 0.0.0.0 daemonize yes pidfile "/usr/local/redis/var/redis-server.pid" port 6379 tcp-backlog 128 timeout 0 tcp-keepalive 0 loglevel notice logfile "/usr/local/redis/var/redis-server.log" databases 16 save 900 1 save 300 10 save 60 10000 stop-writes-on-bgsave-error yes rdbcompression yes rdbchecksum yes dbfilename dump.rdb dir "/usr/local/redis/data/redis" #masterauth "20180408" #master設置密碼保護,即slave連接master時的密碼 #requirepass "20180408" #設置Redis連接密碼,如果配置了連接密碼,客戶端在連接Redis時需要通過AUTH <password>命令提供密碼,默認關閉 slave-serve-stale-data yes slave-read-only yes repl-diskless-sync no repl-diskless-sync-delay 5 repl-disable-tcp-nodelay no slave-priority 100 appendonly yes #打開aof持久化 appendfilename "appendonly.aof" appendfsync everysec # 每秒一次aof寫 no-appendfsync-on-rewrite no auto-aof-rewrite-percentage 100 auto-aof-rewrite-min-size 64mb aof-load-truncated yes lua-time-limit 5000 slowlog-log-slower-than 10000 slowlog-max-len 128 latency-monitor-threshold 0 notify-keyspace-events "" hash-max-ziplist-entries 512 hash-max-ziplist-value 64 list-max-ziplist-entries 512 list-max-ziplist-value 64 set-max-intset-entries 512 zset-max-ziplist-entries 128 zset-max-ziplist-value 64 hll-sparse-max-bytes 3000 activerehashing yes client-output-buffer-limit normal 0 0 0 client-output-buffer-limit slave 256mb 64mb 60 client-output-buffer-limit pubsub 32mb 8mb 60 hz 10 aof-rewrite-incremental-fsync yes 注意: 上面配置中masterauth和requirepass表示設置密碼保護,如果設置了密碼,則連接redis后需要執行"auth 20180408"密碼后才能操作其他命令。這里我不設置密碼。 b)編輯redis-slave01和redis-slave02兩個從節點的redis.conf文件 [root@redis-slave01 src]# mkdir -p /usr/local/redis/data/redis [root@redis-slave01 src]# cp /usr/local/redis/etc/redis.conf /usr/local/redis/etc/redis.conf.bak [root@redis-slave01 src]# vim /usr/local/redis/etc/redis.conf bind 0.0.0.0 daemonize yes pidfile "/usr/local/redis/var/redis-server.pid" port 6379 tcp-backlog 128 timeout 0 tcp-keepalive 0 loglevel notice logfile "/usr/local/redis/var/redis-server.log" databases 16 save 900 1 save 300 10 save 60 10000 stop-writes-on-bgsave-error yes rdbcompression yes rdbchecksum yes dbfilename dump.rdb dir "/usr/local/redis/data/redis" #masterauth "20180408" #requirepass "20180408" slaveof 192.168.10.202 6379 #相對主redis配置,多添加了此行 slave-serve-stale-data yes slave-read-only yes #從節點只讀,不能寫入 repl-diskless-sync no repl-diskless-sync-delay 5 repl-disable-tcp-nodelay no slave-priority 100 appendonly yes appendfilename "appendonly.aof" appendfsync everysec no-appendfsync-on-rewrite no auto-aof-rewrite-percentage 100 auto-aof-rewrite-min-size 64mb aof-load-truncated yes lua-time-limit 5000 slowlog-log-slower-than 10000 slowlog-max-len 128 latency-monitor-threshold 0 notify-keyspace-events "" hash-max-ziplist-entries 512 hash-max-ziplist-value 64 list-max-ziplist-entries 512 list-max-ziplist-value 64 set-max-intset-entries 512 zset-max-ziplist-entries 128 zset-max-ziplist-value 64 hll-sparse-max-bytes 3000 activerehashing yes client-output-buffer-limit normal 0 0 0 client-output-buffer-limit slave 256mb 64mb 60 client-output-buffer-limit pubsub 32mb 8mb 60 hz 10 aof-rewrite-incremental-fsync yes
5)配置sentinel.conf(這個默認沒有,需要自建)。三個節點的配置一樣。
[root@redis-master src]# mkdir -p /usr/local/redis/data/sentinel [root@redis-master src]# vim /usr/local/redis/etc/sentinel.conf port 26379 pidfile "/usr/local/redis/var/redis-sentinel.pid" dir "/usr/local/redis/data/sentinel" daemonize yes protected-mode no logfile "/usr/local/redis/var/redis-sentinel.log" sentinel monitor redisMaster 192.168.10.202 6379 2 sentinel down-after-milliseconds redisMaster 10000 sentinel parallel-syncs redisMaster 1 sentinel failover-timeout redisMaster 60000
6)啟動redis和sentinel(三個節點都要操作)
設置系統變量 [root@redis-slave02 src]# vim /etc/profile ....... export PATH=$PATH:/usr/local/redis/bin [root@redis-slave02 src]# source /etc/profile 啟動redis和sentinel [root@redis-master src]# /etc/init.d/redis-server start Starting redis-server: [ OK ] [root@redis-master src]# /etc/init.d/redis-sentinel start Starting redis-sentinel: [ OK ] [root@redis-master src]# lsof -i:6379 COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME redis-ser 2297 root 6u IPv4 7819726 0t0 TCP *:6379 (LISTEN) redis-ser 2297 root 8u IPv4 7819778 0t0 TCP 192.168.10.202:6379->192.168.10.202:56226 (ESTABLISHED) redis-ser 2297 root 9u IPv4 7819780 0t0 TCP 192.168.10.202:6379->192.168.10.202:56228 (ESTABLISHED) redis-sen 2315 root 8u IPv4 7819777 0t0 TCP 192.168.10.202:56226->192.168.10.202:6379 (ESTABLISHED) redis-sen 2315 root 9u IPv4 7819779 0t0 TCP 192.168.10.202:56228->192.168.10.202:6379 (ESTABLISHED) [root@redis-master src]# lsof -i:26379 COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME redis-sen 2315 root 6u IPv6 7819772 0t0 TCP *:26379 (LISTEN) redis-sen 2315 root 7u IPv4 7819773 0t0 TCP *:26379 (LISTEN)
7)查看redis和sentinel信息
1)查看三個節點的redis的主從關系 [root@redis-master src]# redis-cli -h 192.168.10.202 -p 6379 INFO|grep role role:master [root@redis-master src]# redis-cli -h 192.168.10.203 -p 6379 INFO|grep role role:slave [root@redis-master src]# redis-cli -h 192.168.10.205 -p 6379 INFO|grep role role:slave 從上面信息可以看出,192.168.10.202是master,192.168.10.203和192.168.10.205是slave 2)查看Master節點信息: [root@redis-master src]# redis-cli -h 192.168.10.202 -p 6379 info Replication # Replication role:master connected_slaves:2 slave0:ip=192.168.10.203,port=6379,state=online,offset=61480,lag=0 slave1:ip=192.168.10.205,port=6379,state=online,offset=61480,lag=0 master_replid:96a1fd63d0ad9e7903851a82382e32d690667bcc master_replid2:0000000000000000000000000000000000000000 master_repl_offset:61626 second_repl_offset:-1 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:61626 從上面信息看出,此時192.168.10.202的角色為master,有兩個slave(203和205)被連接成功. 此時打開master的sentinel.conf,在末尾可看到如下自動寫入的內容: [root@redis-master src]# cat /usr/local/redis/etc/sentinel.conf port 26379 pidfile "/usr/local/redis/var/redis-sentinel.pid" dir "/usr/local/redis/data/sentinel" daemonize yes protected-mode no logfile "/usr/local/redis/var/redis-sentinel.log" sentinel myid c165761901b5ea3cd2d622bbf13f4c99eb73c1bc sentinel monitor redisMaster 192.168.10.202 6379 2 sentinel down-after-milliseconds redisMaster 10000 sentinel failover-timeout redisMaster 60000 # Generated by CONFIG REWRITE sentinel config-epoch redisMaster 0 sentinel leader-epoch redisMaster 0 sentinel known-slave redisMaster 192.168.10.203 6379 sentinel known-slave redisMaster 192.168.10.205 6379 sentinel known-sentinel redisMaster 192.168.10.205 26379 cc25d5f0e37803e888732d63deae3761c9f91e1d sentinel known-sentinel redisMaster 192.168.10.203 26379 e1505ffc65f787871febfde2f27b762f70cddd71 sentinel current-epoch 0 [root@redis-master ~]# redis-cli -h 192.168.10.205 -p 26379 info Sentinel # Sentinel sentinel_masters:1 sentinel_tilt:0 sentinel_running_scripts:0 sentinel_scripts_queue_length:0 sentinel_simulate_failure_flags:0 master0:name=redisMaster,status=ok,address=192.168.10.202:6379,slaves=2,sentinels=3 3)查看Slave節點信息: 先查看salve01節點信息 [root@redis-slave01 src]# redis-cli -h 192.168.10.203 -p 6379 info Replication # Replication role:slave master_host:192.168.10.202 master_port:6379 master_link_status:up master_last_io_seconds_ago:0 master_sync_in_progress:0 slave_repl_offset:96744 slave_priority:100 slave_read_only:1 connected_slaves:0 master_replid:96a1fd63d0ad9e7903851a82382e32d690667bcc master_replid2:0000000000000000000000000000000000000000 master_repl_offset:96744 second_repl_offset:-1 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:96744 此時192.168.10.203的角色為slave,它們所屬的master為220。 此時打開slave的sentinel.conf,在末尾可看到如下自動寫入的內容: [root@redis-slave01 src]# cat /usr/local/redis/etc/sentinel.conf port 26379 pidfile "/usr/local/redis/var/redis-sentinel.pid" dir "/usr/local/redis/data/sentinel" daemonize yes protected-mode no logfile "/usr/local/redis/var/redis-sentinel.log" sentinel myid e1505ffc65f787871febfde2f27b762f70cddd71 sentinel monitor redisMaster 192.168.10.202 6379 2 sentinel down-after-milliseconds redisMaster 10000 sentinel failover-timeout redisMaster 60000 # Generated by CONFIG REWRITE sentinel config-epoch redisMaster 0 sentinel leader-epoch redisMaster 0 sentinel known-slave redisMaster 192.168.10.203 6379 sentinel known-slave redisMaster 192.168.10.205 6379 sentinel known-sentinel redisMaster 192.168.10.205 26379 cc25d5f0e37803e888732d63deae3761c9f91e1d sentinel known-sentinel redisMaster 192.168.10.202 26379 c165761901b5ea3cd2d622bbf13f4c99eb73c1bc sentinel current-epoch 0 [root@redis-slave01 ~]# redis-cli -h 192.168.10.203 -p 26379 info Sentinel # Sentinel sentinel_masters:1 sentinel_tilt:0 sentinel_running_scripts:0 sentinel_scripts_queue_length:0 sentinel_simulate_failure_flags:0 master0:name=redisMaster,status=ok,address=192.168.10.202:6379,slaves=2,sentinels=3 同樣查看slave02節點的信息 [root@redis-slave02 src]# redis-cli -h 192.168.10.205 -p 6379 info Replication # Replication role:slave master_host:192.168.10.202 master_port:6379 master_link_status:up master_last_io_seconds_ago:0 master_sync_in_progress:0 slave_repl_offset:99678 slave_priority:100 slave_read_only:1 connected_slaves:0 master_replid:96a1fd63d0ad9e7903851a82382e32d690667bcc master_replid2:0000000000000000000000000000000000000000 master_repl_offset:99678 second_repl_offset:-1 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:170 repl_backlog_histlen:99509 [root@redis-slave02 src]# cat /usr/local/redis/etc/sentinel.conf port 26379 pidfile "/usr/local/redis/var/redis-sentinel.pid" dir "/usr/local/redis/data/sentinel" daemonize yes protected-mode no logfile "/usr/local/redis/var/redis-sentinel.log" sentinel myid cc25d5f0e37803e888732d63deae3761c9f91e1d sentinel monitor redisMaster 192.168.10.202 6379 2 sentinel down-after-milliseconds redisMaster 10000 sentinel failover-timeout redisMaster 60000 # Generated by CONFIG REWRITE sentinel config-epoch redisMaster 0 sentinel leader-epoch redisMaster 0 sentinel known-slave redisMaster 192.168.10.205 6379 sentinel known-slave redisMaster 192.168.10.203 6379 sentinel known-sentinel redisMaster 192.168.10.203 26379 e1505ffc65f787871febfde2f27b762f70cddd71 sentinel known-sentinel redisMaster 192.168.10.202 26379 c165761901b5ea3cd2d622bbf13f4c99eb73c1bc sentinel current-epoch 0 [root@redis-slave02 ~]# redis-cli -h 192.168.10.205 -p 26379 info Sentinel # Sentinel sentinel_masters:1 sentinel_tilt:0 sentinel_running_scripts:0 sentinel_scripts_queue_length:0 sentinel_simulate_failure_flags:0 master0:name=redisMaster,status=ok,address=192.168.10.202:6379,slaves=2,sentinels=3
8)客戶端寫入測試數據
客戶端連接master節點,寫入一條數據 [root@redis-master src]# redis-cli -h 192.168.10.202 -p 6379 192.168.10.202:6379> set name kevin; OK 192.168.10.202:6379> get name; "kevin"; 然后客戶端再連接任意slave節點,通過get獲取上面的那條數據 [root@redis-master src]# redis-cli -h 192.168.10.203 -p 6379 192.168.10.203:6379> get name "kevin;" 192.168.10.203:6379> set name grace; (error) READONLY You can't write against a read only slave. 192.168.10.203:6379> [root@redis-master src]# redis-cli -h 192.168.10.205 -p 6379 192.168.10.205:6379> get name "kevin;" 192.168.10.205:6379> set name grace; (error) READONLY You can't write against a read only slave. 192.168.10.205:6379> 由上面測試信息可知,master節點可以寫入,可以讀取;而slave節點默認只能讀取,不能寫入!這就實現了主從復制,讀寫分離了!
9)模擬故障(通過sentinel實現主從切換,sentinel也要部署多台,即集群模式,防止單台sentinel掛掉情況)
1)關掉任意一個slave節點(比如關閉掉slave01節點),所有節點的sentinel都可以檢測到,出現如下示例信息: [root@redis-master src]# redis-cli -h 192.168.10.203 -p 6379 192.168.10.203:6379> get name "kevin;" 192.168.10.203:6379> set name grace; (error) READONLY You can't write against a read only slave. 192.168.10.203:6379> shutdown not connected> 說明:shutdown命令表示關閉redis 從上可看出203被sentinel檢測到已處於關閉狀態,此時再來查看剩余節點的主從信息,它們的角色不會發生變化,只是master上的connected_slaves變為了1。 [root@redis-master src]# redis-cli -h 192.168.10.202 -p 6379 info replication # Replication role:master connected_slaves:1 slave0:ip=192.168.10.205,port=6379,state=online,offset=219376,lag=1 master_replid:96a1fd63d0ad9e7903851a82382e32d690667bcc master_replid2:0000000000000000000000000000000000000000 master_repl_offset:219376 second_repl_offset:-1 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:219376 查看sentinel日志(任意節點上查看),發現203節點已經進入"+sdown"狀態 [root@redis-master src]# tail -f /usr/local/redis/var/redis-sentinel.log 2315:X 08 May 18:49:51.429 * Increased maximum number of open files to 10032 (it was originally set to 1024). 2315:X 08 May 18:49:51.431 * Running mode=sentinel, port=26379. 2315:X 08 May 18:49:51.431 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128. 2315:X 08 May 18:49:51.463 # Sentinel ID is c165761901b5ea3cd2d622bbf13f4c99eb73c1bc 2315:X 08 May 18:49:51.463 # +monitor master redisMaster 192.168.10.202 6379 quorum 2 2315:X 08 May 18:50:11.544 * +slave slave 192.168.10.203:6379 192.168.10.203 6379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 18:50:11.574 * +slave slave 192.168.10.205:6379 192.168.10.205 6379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 18:50:15.088 * +sentinel sentinel e1505ffc65f787871febfde2f27b762f70cddd71 192.168.10.203 26379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 18:50:16.075 * +sentinel sentinel cc25d5f0e37803e888732d63deae3761c9f91e1d 192.168.10.205 26379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 19:06:07.669 # +sdown slave 192.168.10.203:6379 192.168.10.203 6379 @ redisMaster 192.168.10.202 6379 然后重啟上面被關閉的slave節點(即192.168.10.203),所有節點的sentinel都可以檢測到,可看出221又被sentinel檢測到已處於可用狀態,此時再來查看節點的主從信息, 它們的角色仍然不會發生變化,master上的connected_slaves又變為了2 [root@redis-slave01 src]# /etc/init.d/redis-server restart Stopping redis-server: [FAILED] Starting redis-server: [ OK ] [root@redis-slave01 src]# /etc/init.d/redis-server restart Stopping redis-server: [ OK ] Starting redis-server: [ OK ] [root@redis-master src]# redis-cli -h 192.168.10.202 -p 6379 info replication # Replication role:master connected_slaves:2 slave0:ip=192.168.10.205,port=6379,state=online,offset=268216,lag=0 slave1:ip=192.168.10.203,port=6379,state=online,offset=268070,lag=1 master_replid:96a1fd63d0ad9e7903851a82382e32d690667bcc master_replid2:0000000000000000000000000000000000000000 master_repl_offset:268216 second_repl_offset:-1 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:268216 查看sentinel日志(任意節點上查看),發現203節點已經進入"-sdown"狀態 [root@redis-master src]# tail -f /usr/local/redis/var/redis-sentinel.log 2315:X 08 May 18:49:51.429 * Increased maximum number of open files to 10032 (it was originally set to 1024). 2315:X 08 May 18:49:51.431 * Running mode=sentinel, port=26379. 2315:X 08 May 18:49:51.431 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128. 2315:X 08 May 18:49:51.463 # Sentinel ID is c165761901b5ea3cd2d622bbf13f4c99eb73c1bc 2315:X 08 May 18:49:51.463 # +monitor master redisMaster 192.168.10.202 6379 quorum 2 2315:X 08 May 18:50:11.544 * +slave slave 192.168.10.203:6379 192.168.10.203 6379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 18:50:11.574 * +slave slave 192.168.10.205:6379 192.168.10.205 6379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 18:50:15.088 * +sentinel sentinel e1505ffc65f787871febfde2f27b762f70cddd71 192.168.10.203 26379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 18:50:16.075 * +sentinel sentinel cc25d5f0e37803e888732d63deae3761c9f91e1d 192.168.10.205 26379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 19:06:07.669 # +sdown slave 192.168.10.203:6379 192.168.10.203 6379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 19:10:14.965 * +reboot slave 192.168.10.203:6379 192.168.10.203 6379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 19:10:15.020 # -sdown slave 192.168.10.203:6379 192.168.10.203 6379 @ redisMaster 192.168.10.202 6379 ======================================================================================================= 2)關掉master節點(即192.168.10.202),待所有節點的sentinel都檢測到后(稍等一會,2-3秒鍾時間),再來查看兩個Slave節點的主從信息,發現其中一個節點的角色通過選舉后會成為 master節點了! [root@redis-master src]# redis-cli -h 192.168.10.202 -p 6379 192.168.10.202:6379> shutdown not connected> 查看sentinel日志(任意節點上查看),發現202節點已經進入"+sdown"狀態 [root@redis-master src]# tail -f /usr/local/redis/var/redis-sentinel.log 2315:X 08 May 19:17:03.722 # +failover-state-reconf-slaves master redisMaster 192.168.10.202 6379 2315:X 08 May 19:17:03.760 * +slave-reconf-sent slave 192.168.10.203:6379 192.168.10.203 6379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 19:17:04.015 * +slave-reconf-inprog slave 192.168.10.203:6379 192.168.10.203 6379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 19:17:04.459 # -odown master redisMaster 192.168.10.202 6379 2315:X 08 May 19:17:05.047 * +slave-reconf-done slave 192.168.10.203:6379 192.168.10.203 6379 @ redisMaster 192.168.10.202 6379 2315:X 08 May 19:17:05.131 # +failover-end master redisMaster 192.168.10.202 6379 2315:X 08 May 19:17:05.131 # +switch-master redisMaster 192.168.10.202 6379 192.168.10.205 6379 2315:X 08 May 19:17:05.131 * +slave slave 192.168.10.203:6379 192.168.10.203 6379 @ redisMaster 192.168.10.205 6379 2315:X 08 May 19:17:05.131 * +slave slave 192.168.10.202:6379 192.168.10.202 6379 @ redisMaster 192.168.10.205 6379 2315:X 08 May 19:17:15.170 # +sdown slave 192.168.10.202:6379 192.168.10.202 6379 @ redisMaster 192.168.10.205 6379 [root@redis-slave01 src]# redis-cli -h 192.168.10.203 -p 6379 INFO|grep role role:slave [root@redis-slave01 src]# redis-cli -h 192.168.10.205 -p 6379 INFO|grep role role:master [root@redis-slave01 src]# redis-cli -h 192.168.10.205 -p 6379 info replication # Replication role:master connected_slaves:1 slave0:ip=192.168.10.203,port=6379,state=online,offset=348860,lag=1 master_replid:a51f87958cea0b1e8fe2c83542ca6cebace53bf7 master_replid2:96a1fd63d0ad9e7903851a82382e32d690667bcc master_repl_offset:349152 second_repl_offset:342824 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:170 repl_backlog_histlen:348983 [root@redis-slave01 src]# redis-cli -h 192.168.10.203 -p 6379 info replication # Replication role:slave master_host:192.168.10.205 master_port:6379 master_link_status:up master_last_io_seconds_ago:0 master_sync_in_progress:0 slave_repl_offset:347546 slave_priority:100 slave_read_only:1 connected_slaves:0 master_replid:a51f87958cea0b1e8fe2c83542ca6cebace53bf7 master_replid2:96a1fd63d0ad9e7903851a82382e32d690667bcc master_repl_offset:347546 second_repl_offset:342824 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:283207 repl_backlog_histlen:64340 由上可知,當master節點(即192.168.10.202)的redis關閉后,slave02節點(即192.168.10.205)變成了新的master節點,而slave01(即192.168.10.203)成為 了slave02的從節點! 192.168.10.205節點此時被選舉為master,此時打開的205節點的redis.conf文件,slaveof配置項已被自動刪除了。 而203從節點的redis.conf文件中slaveof配置項的值被自動修改為192.168.10.205 6379。 [root@redis-slave02 src]# cat /usr/local/redis/etc/redis.conf|grep slaveof [root@redis-slave01 src]# cat /usr/local/redis/etc/redis.conf|grep slaveof slaveof 192.168.10.205 6379 在這個新master上(即192.168.10.205)執行諸如set這樣的寫入操作將被成功執行 [root@redis-slave01 src]# redis-cli -h 192.168.10.205 -p 6379 192.168.10.205:6379> set name beijing; OK [root@redis-master src]# redis-cli -h 192.168.10.203 -p 6379 192.168.10.203:6379> get name "beijing;" 192.168.10.203:6379> set name tianjin; (error) READONLY You can't write against a read only slave. 192.168.10.203:6379> 重啟192.168.10.202節點的redis,待所有節點的sentinel都檢測到后,再來查看所有節點的主從信息,此時192.168.10.205節點的master角色不會被重新搶占, 而192.168.10.202節點的角色會從原來的master變為了slave。 [root@redis-master src]# /etc/init.d/redis-server restart Stopping redis-server: [FAILED] Starting redis-server: [ OK ] [root@redis-master src]# /etc/init.d/redis-server restart Stopping redis-server: [ OK ] Starting redis-server: [ OK ] [root@redis-master src]# redis-cli -h 192.168.10.202 -p 6379 INFO|grep role role:slave [root@redis-master src]# redis-cli -h 192.168.10.203 -p 6379 INFO|grep role role:slave [root@redis-master src]# redis-cli -h 192.168.10.205 -p 6379 INFO|grep role role:master [root@redis-master src]# redis-cli -h 192.168.10.205 -p 6379 info replication # Replication role:master connected_slaves:2 slave0:ip=192.168.10.203,port=6379,state=online,offset=545410,lag=1 slave1:ip=192.168.10.202,port=6379,state=online,offset=545410,lag=1 master_replid:a51f87958cea0b1e8fe2c83542ca6cebace53bf7 master_replid2:96a1fd63d0ad9e7903851a82382e32d690667bcc master_repl_offset:545556 second_repl_offset:342824 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:170 repl_backlog_histlen:545387 [root@redis-master src]# redis-cli -h 192.168.10.202 -p 6379 192.168.10.202:6379> get name "beijing;" 此時登錄192.168.10.202節點的redis,執行"get name"得到的值為beijing,而不是原來的kevin,因為192.168.10.202節點的redis重啟后會自動從新的master中同步 數據。此時打開192.168.10.202節點的redis.conf文件,會在末尾找到如下信息: [root@redis-master src]# cat /usr/local/redis/etc/redis.conf|grep slaveof slaveof 192.168.10.205 6379 到此,已經驗證出了redis sentinel可以自行實現主從的故障切換了!
10)客戶端如何連接redis sentinel?
客戶端配置連接的是sentinel信息,比如連接sentinel.conf文件中定義的master名稱。在sentinel監聽時,當master節點掛了,它會在slave節點中自動選舉出新 的master節點,而當掛了的老master節點重新恢復后就會成為新的slave節點。對於客戶端來說,redis主從切換后它不需要修改連接配置。 下面列出幾個客戶端連接redis sentinel的例子 1)java客戶端在jedis中使用redis sentinel哨兵方式連接 <?xml version="1.0" encoding="UTF-8"?> <beans xmlns="http://www.springframework.org/schema/beans"> <bean id="jedisPoolConfig" class="redis.clients.jedis.JedisPoolConfig"> <property name="maxTotal" value="1000"/> <property name="maxIdle" value="10"/> <property name="minIdle" value="1"/> <property name="maxWaitMillis" value="30000"/> <property name="testOnBorrow" value="true"/> <property name="testOnReturn" value="true"/> <property name="testWhileIdle" value="true"/> </bean> <bean id="cacheService" class="sentinel.CacheServiceImpl" destroy-method="destroy"> <property name="jedisSentinlePool"> <bean class="redis.clients.jedis.JedisSentinelPool"> <constructor-arg index="0" value="mymaster" /> <constructor-arg index="1"> <set> <value>192.168.10.202:26379</value> <value>192.168.10.203:26379</value> <value>192.168.10.205:26379</value> </set> </constructor-arg> <constructor-arg index="2" ref="jedisPoolConfig" /> </bean> </property> </bean> </beans> 2)python連接redis sentinel集群(需要安裝python redis客戶端,即執行"pip install redis") #!/usr/bin/env python # -*- coding:utf-8 -*- import redis from redis.sentinel import Sentinel # 連接哨兵服務器(主機名也可以用域名) sentinel = Sentinel([('192.168.10.202', 26379), ('192.168.10.203', 26379), ('192.168.10.205', 26379) ], socket_timeout=0.5) # 獲取主服務器地址 master = sentinel.discover_master('mymaster') print(master) # 輸出:('192.168.10.202', 26379) # 獲取從服務器地址 slave = sentinel.discover_slaves('mymaster') print(slave) # 輸出:[('192.168.10.203', 26379), ('192.168.10.205', 26379), ('172.31.0.5', 26379)] # 獲取主服務器進行寫入 master = sentinel.master_for('mymaster', socket_timeout=0.5, password='redis_auth_pass', db=15) w_ret = master.set('foo', 'bar') # 輸出:True # # 獲取從服務器進行讀取(默認是round-roubin) slave = sentinel.slave_for('mymaster', socket_timeout=0.5, password='redis_auth_pass', db=15) r_ret = slave.get('foo') print(r_ret) # # 輸出:bar 3)Java客戶端連接Redis(單sentinel). 下面例子中好的redisMaster和20180408是在sentinel.conf中定義的master名稱和連接密碼 package com.hiifit.cloudplatform.gaia.test; import java.util.HashSet; import java.util.Set; import redis.clients.jedis.Jedis; import redis.clients.jedis.JedisSentinelPool; public class RedisSentinelTest { @SuppressWarnings("deprecation") public static void main(String[] args) { Set<String> sentinels = new HashSet<String>(); String hostAndPort1 = "192.168.10.205:26379"; sentinels.add(hostAndPort1); String clusterName = "redisMaster"; String password = "20180408"; JedisSentinelPool redisSentinelJedisPool = new JedisSentinelPool(clusterName,sentinels,password); Jedis jedis = null; try { jedis = redisSentinelJedisPool.getResource(); jedis.set("key", "value"); } catch (Exception e) { e.printStackTrace(); } finally { redisSentinelJedisPool.returnBrokenResource(jedis); } redisSentinelJedisPool.close(); } }