數據平滑遷移


原文作者:58沈劍      原文地址

上次《百億級數據DB秒級平滑擴容!》之后,很多朋友提問,說如果不是“雙倍”擴容,能否做到平滑遷移,不影響服務呢?

 

適用什么場景?

互聯網有很多“數據量較大,並發量較大,業務復雜度較高”的業務場景,其典型系統分層架構如下:

(1)上游是業務層biz,實現個性化的業務邏輯;

(2)中游是服務層service,封裝數據訪問;

(3)下游是數據層db,存儲固化的業務數據;

 

服務化分層架構的好處是,服務層屏蔽下游數據層的復雜性,例如緩存、分庫分表、存儲引擎等存儲細節不需要向調用方暴露,而只向上游提供方便的RPC訪問接口,當有一些數據層變化的時候,所有的調用方也不需要升級,只需要服務層升級即可。

互聯網架構,很多時候面臨着這樣一些需求:

(1)底層表結構變更:數據量非常大的情況下,數據表增加了一些屬性,刪除了一些屬性,修改了一些屬性。

 

(2)分庫個數變化:由於數據量的持續增加,底層分庫個數非成倍增加。

 

(3)底層存儲介質變化:底層存儲引擎由一個數據庫換為另一個數據庫。

 

種種需求,都需要進行數據遷移,如何平滑遷移數據,遷移過程不停機,保證系統持續服務,是文本將要討論的問題。

方案一:停機方案

在討論平滑遷移數據方案之前,先看下不平滑的停機數據遷移方案,主要分三個步驟。

步驟一一個類似“為了給廣大用戶提供更好的服務,服務器會在凌晨0:00-0:400進行停機維護”的公告,並在對應時段進行停機,這個時段系統沒有流量進入。

 

步驟二:停機后,研發一個離線的數據遷移工具,進行數據遷移。針對第一節的三類需求,會分別開發不同的數據遷移工具。

(1)底層表結構變更需求:開發舊表導新表的工具;

(2)分庫個數變換需求:開發2庫導3庫的工具;

(3)底層存儲介質變換需求:開發Mongo導Mysql工具;

 

步驟三恢復服務,並將流量切到新庫,不同的需求,可能會涉及不同服務升級。

(1)底層表結構變更需求:服務要升級到訪問新表;

(2)分庫個數變換需求:服務不需要升級,只需要改尋庫路由配置;

(3)底層存儲介質變換需求:服務升級到訪問新的存儲介質;

 

總的來說,停機方案是相對直觀和簡單的,但對服務的可用性有影響,許多游戲公司的服務器升級,游戲分區與合區,可能會采用類似的方案。

除了影響服務的可用性,這個方案還有一個缺點,就是必須在指定時間完成升級,這個對研發、測試、運維同學來說,壓力會非常大,一旦出現問題例如數據不一致,必須在規定時間內解決,否則只能回滾。根據經驗,人壓力越大越容易出錯,這個缺點一定程度上是致命的。

無論如何,停機方案並不是今天要討論的重點,接下來看一下常見的平滑數據遷移方案。

 

方案二:追日志方案

追日志方案,是一個高可用的平滑遷移方案,這個方案主要分為五個步驟。

數據遷移前,上游業務應用通過舊的服務訪問舊的數據。

步驟一:服務進行升級,記錄“對舊庫上的數據修改”的日志(這里的修改,為數據的insert, delete, update),這個日志不需要記錄詳細數據,主要記錄:

(1)被修改的庫;

(2)被修改的表;

(3)被修改的唯一主鍵;

具體新增了什么行,修改后的數據格式是什么,不需要詳細記錄。這樣的好處是,不管業務細節如何變化,日志的格式是固定的,這樣能保證方案的通用性。

 

這個服務升級風險較小:

(1)寫接口是少數接口,改動點較少;

(2)升級只是增加了一些日志,對業務功能沒有任何影響;

步驟二:研發一個數據遷移工具,進行數據遷移。這個數據遷移工具和離線遷移工具一樣,把舊庫中的數據轉移到新庫中來。

 

這個小工具的風險較小:

(1)整個過程依然是舊庫對線上提供服務;

(2)小工具的復雜度較低;

(3)任何時間發現問題,都可以把新庫中的數據干掉重來;

(4)可以限速慢慢遷移,技術同學沒有時間壓力;

 

數據遷移完成之后,就能夠切到新庫提供服務了么?

答案是否定的,在數據遷移的過程中,舊庫依然對線上提供着服務,庫中的數據隨時可能變化,這個變化並沒有反映到新庫中來,於是舊庫和新庫的數據並不一致,所以不能直接切庫,需要將數據追平。

 

哪些數據發生了變化呢?

步驟一中日志里記錄的,正是變化的數據。

 

步驟三:研發一個讀取日志並遷移數據的小工具,要把步驟二遷移數據過程中產生的差異數據追平。這個小工具需要做的是:

(1)讀取日志,得到哪個庫、哪個表、哪個主鍵發生了變化;

(2)把舊庫中對應主鍵的記錄讀取出來;

(3)把新庫中對應主鍵的記錄替換掉;

無論如何,原則是數據以舊庫為准。

 

這個小工具的風險也很小:

(1)整個過程依然是舊庫對線上提供服務;

(2)小工具的復雜度較低;

(3)任何時間發現問題,大不了從步驟二開始重來;

(4)可以限速慢慢重放日志,技術同學沒有時間壓力;

日志重放之后,就能夠切到新庫提供服務了么?

答案依然是否定的,在日志重放的過程中,舊庫中又可能有數據發生了變化,導致數據不一致,所以還是不能切庫,需要進一步讀取日志,追平記錄。可以看到,重放日志追平數據的程序是一個while(1)的程序,新庫與舊庫中的數據追平也會是一個“無限逼近”的過程。

什么時候數據會完全一致呢?

 

步驟四:在持續重放日志,追平數據的過程中,研發一個數據校驗的小工具,將舊庫和新庫中的數據進行比對,直到數據完全一致。

這個小工具的風險依舊很小:

(1)整個過程依然是舊庫對線上提供服務;

(2)小工具的復雜度較低;

(3)任何時間發現問題,大不了從步驟二開始重來;

(4)可以限速慢慢比對數據,技術同學沒有時間壓力;

步驟五:在數據比對完全一致之后,將流量遷移到新庫,新庫提供服務,完成遷移。

如果步驟四數據一直是99.9%的一致,不能完全一致,也是正常的,可以做一個秒級的舊庫readonly,等日志重放程序完全追上數據后,再進行切庫切流量。

至此,升級完畢,整個過程能夠持續對線上提供服務,不影響服務的可用性。

 

方案三:雙寫方案

雙寫方案,也是一個高可用的平滑遷移方案,這個方案主要分為四個步驟。

數據遷移前,上游業務應用通過舊的服務訪問舊的數據。

步驟一:服務進行升級,對“對舊庫上的數據修改”(這里的修改,為數據的insert, delete, update),在新庫上進行相同的修改操作,這就是所謂的“雙寫”,主要修改操作包括:

(1)舊庫與新庫的同時insert;

(2)舊庫與新庫的同時delete;

(3)舊庫與新庫的同時update;

由於新庫中此時是沒有數據的,所以雙寫舊庫與新庫中的affect rows可能不一樣,不過這完全不影響業務功能,只要不切庫,依然是舊庫提供業務服務。

 

這個服務升級風險較小:

(1)寫接口是少數接口,改動點較少;

(2)新庫的寫操作執行成功與否,對業務功能沒有任何影響;

步驟二:研發一個數據遷移工具,進行數據遷移。這個數據遷移工具在本文中已經出現第三次了,把舊庫中的數據轉移到新庫中來。

 

這個小工具的風險較小:

(1)整個過程依然是舊庫對線上提供服務;

(2)小工具的復雜度較低;

(3)任何時間發現問題,都可以把新庫中的數據干掉重來;

(4)可以限速慢慢遷移,技術同學沒有時間壓力;

 

數據遷移完成之后,就能夠切到新庫提供服務了么?

答案是肯定的,因為前置步驟進行了雙寫,所以理論上數據遷移完之后,新庫與舊庫的數據應該完全一致。

由於遷移數據的過程中,舊庫新庫雙寫操作在同時進行,怎么證明數據遷移完成之后數據就完全一致了呢?

如上圖所示:

(1)左側是舊庫中的數據,右側是新庫中的數據;

(2)按照primary key從min到max的順序,分段,限速進行數據的遷移,假設已經遷移到now這個數據段,數據遷移過程中的修改操作分別討論:

  • 假設遷移過程中進行了一個雙insert操作,舊庫新庫都插入了數據,數據一致性沒有被破壞

  • 假設遷移過程中進行了一個雙delete操作,這又分為兩種情況

情況一:假設這delete的數據屬於[min,now]范圍,即已經完成遷移,則舊庫新庫都刪除了數據,數據一致性沒有被破壞;

情況二:假設這delete的數據屬於[now,max]范圍,即未完成遷移,則舊庫中刪除操作的affect rows為1,新庫中刪除操作的affect rows為0,但是數據遷移工具在后續數據遷移中,並不會將這條舊庫中被刪除的數據遷移到新庫中,所以數據一致性仍沒有被破壞;

  • 假設遷移過程中進行了一個雙update操作,可以認為update操作是一個delete加一個insert操作的復合操作,所以數據仍然是一致的

 

除非,在一種非常極限的情況下:

(1)date-migrate-tool剛好從舊庫中將某一條數據X取出;

(2)在X插入到新庫中之前,舊庫與新庫中剛好對X進行了雙delete操作;

(3)date-migrate-tool再將X插入到新庫中;

這樣,會出現新庫比舊庫多出一條數據X。

 

但無論如何,為了保證數據的一致性,切庫之前,還是需要進行數據校驗的。

步驟三:在數據遷移完成之后,需要使用數據校驗的小工具,將舊庫和新庫中的數據進行比對,完全一致則符合預期,如果出現步驟二中的極限不一致情況,則以舊庫中的數據為准。

 

這個小工具的風險依舊很小:

(1)整個過程依然是舊庫對線上提供服務;

(2)小工具的復雜度較低;

(3)任何時間發現問題,大不了從步驟二開始重來;

(4)可以限速慢慢比對數據,技術同學沒有時間壓力;

步驟四:數據完全一致之后,將流量切到新庫,完成平滑數據遷移。 

至此,升級完畢,整個過程能夠持續對線上提供服務,不影響服務的可用性。

 

總結

針對互聯網很多“數據量較大,並發量較大,業務復雜度較高”的業務場景,在:

(1)底層表結構變更;

(2)分庫個數變化;

(3)底層存儲介質變化;

的眾多需求下,需要進行數據遷移,完成“平滑遷移數據,遷移過程不停機,保證系統持續服務”有兩種常見的解決方案。

 

追日志方案,五個步驟:

(1)服務進行升級,記錄“對舊庫上的數據修改”的日志;

(2)研發一個數據遷移小工具,進行數據遷移;

(3)研發一個讀取日志小工具,追平數據差異;

(4)研發一個數據比對小工具,校驗數據一致性;

(5)流量切到新庫,完成平滑遷移;

 

雙寫方案,四個步驟:

(1)服務進行升級,記錄“對舊庫上的數據修改”進行新庫的雙寫;

(2)研發一個數據遷移小工具,進行數據遷移;

(3)研發一個數據比對小工具,校驗數據一致性;

(4)流量切到新庫,完成平滑遷移;


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM