跨庫分頁的幾種常見方案


原文作者:58沈劍  架構師之路  原文地址

為什么需要研究跨庫分頁?

 

互聯網很多業務都有分頁拉取數據的需求,例如:

(1)微信消息過多時,拉取第N頁消息;

(2)京東下單過多時,拉取第N頁訂單;

(3)瀏覽58同城,查看第N頁帖子;

 

這些業務場景對應的消息表,訂單表,帖子表分頁拉取需求,都有這樣一些共同的特點:

(1)有個業務主鍵id,  msg_id, order_id, tiezi_id;

(2)分頁按照非業務主鍵id來排序,業務中經常按照時間time來排序order by;

 

在數據量不大時,如何來實現跨庫分頁的需求呢?

(1)在排序字段time上建立索引;

(2)利用SQL提供的offset/limit就能實現;

 

例如:

select * from t_msg order by time offset 200 limit 100;

select * from t_order order by time offset 200 limit 100; 

select * from t_tiezi order by time offset 200 limit 100;

畫外音:此處假設一頁數據為100條,均拉取第3頁數據。

 

為什么會有分庫的需求?

高並發大流量的互聯網架構,一般通過服務層來訪問數據庫,隨着數據量的增大,數據庫需要進行水平切分,分庫后將數據分布到不同的數據庫實例(甚至物理機器)上,以達到降低數據量,增加實例數的擴容目的。

 

一旦涉及分庫,逃不開“分庫依據” patition key,要使用哪一個字段來水平切分數據庫呢?

大部分的業務場景,會使用業務主鍵id。

 

確定了分庫依據 patition key 后,接下來怎么確定分庫算法呢?

大部分的業務場景,會使用業務主鍵id取模的算法來分庫,這樣的好處是:

(1)即能夠保證每個庫的數據分布是均勻的;

(2)又能夠保證每個庫的請求分布是均勻的;

實在是簡單實現負載均衡的好方法,此法在互聯網架構中應用頗多。

 

一個更具體的例子:

 

 

用戶庫user,水平切分后變為兩個庫:

(1)分庫依據patition key是uid

(2)分庫算法是uid取模:uid%2余0的數據會落到db0,uid%2余1的數據會落到db1;

 

數據庫進行了水平切分之后,如果業務要查詢“最近注冊的第3頁用戶”,即跨庫分頁查詢,該如何實現呢

單庫上,可以

select * from t_user order by time offset 200 limit 100;

變成兩個庫后,分庫依據是uid,排序依據是time,數據庫層失去了time排序的全局視野,數據分布在兩個庫上,此時該怎么辦呢?

 

如何滿足“跨越多個水平切分數據庫,且分庫依據與排序依據為不同屬性,並需要進行分頁”的查詢需求,實現:

select * from T order by time offset X limit Y;

這類跨庫分頁SQL,是后文將要討論的技術問題。

 

方案一:全局視野法

 

 

如上圖所述,服務層通過uid取模將數據分布到兩個庫上去之后,每個數據庫都失去了全局視野,數據按照time局部排序之后,不管哪個分庫的第3頁數據,都不一定是全局排序的第3頁數據。

 

那到底哪些數據才是全局排序的第3頁數據呢?

需要分三種情況討論。

 

(1)極端情況,兩個庫的數據完全一樣

 

 

如果兩個庫的數據完全相同,只需要每個庫offset一半,再取半頁,就是最終想要的數據(如上圖中粉色部分數據)。

 

(2)極端情況,結果數據來自一個庫

 

 

也可能兩個庫的數據分布及其不均衡,例如db0的所有數據的time都大於db1的所有數據的time,則可能出現:一個庫的第3頁數據,就是全局排序后的第3頁數據(如上圖中粉色部分數據)。

 

(3)一般情況,每個庫數據各包含一部分

 

 

正常情況下,全局排序的第3頁數據,每個庫都會包含一部分(如上圖中粉色部分數據)。

 

由於不清楚到底是哪種情況,所以必須:

(1)每個庫都返回3頁數據;

(2)所得到的6頁數據在服務層進行內存排序,得到數據全局視野;

(3)再取第3頁數據,便能夠得到想要的全局分頁數據。

 

再總結一下這個方案的步驟:

(1)將SQL語句改寫,即

order by time offset X limit Y;

改寫成

order by time offset 0 limit X+Y;

(2)服務層將改寫后的SQL語句發往各個分庫;

(3)假設共分為N個庫,服務層將得到N*(X+Y)條數據;

(4)服務層對得到的N*(X+Y)條數據進行內存排序;

(5)內存排序后再取偏移量X后的Y條記錄,就是全局視野所需的一頁數據;

 

全局視野法有什么優點?

通過服務層修改SQL語句,擴大數據召回量,能夠得到全局視野,業務無損,精准返回所需數據。

 

全局視野法的缺點呢?

缺點顯而易見:

(1)每個分庫需要返回更多的數據,增大了網絡傳輸量(耗網絡);

(2)除了數據庫按照time進行排序,服務層還需要進行二次排序,增大了服務層的計算量(耗CPU);

(3)最致命的,這個算法隨着頁碼的增大,性能會急劇下降,這是因為SQL改寫后每個分庫要返回X+Y行數據:返回第3頁,offset中的X=200;假如要返回第100頁,offset中的X=9900,即每個分庫要返回100頁數據,數據量和排序量都將大增,性能平方級下降。

 

“全局視野法”雖然性能較差,但其業務無損,數據精准,不失為一種方案,有沒有性能更優的方案呢?

 

“任何脫離業務的架構設計都是耍流氓”,技術方案需要折衷,在技術難度較大的情況下,業務需求的折衷能夠極大的簡化技術方案。

 

方案二:禁止跳頁查詢法

在數據量很大,翻頁數很多的時候,很多產品並不提供“直接跳到指定頁面”的功能,而只提供“下一頁”的功能,這一個小小的業務折衷,就能極大的降低技術方案的復雜度。

 

 

如上圖,不能跳頁,那么第一次只能夠查第一頁:

(1)將查詢

order by time offset 0 limit 100;

改寫成

order by time where time>0 limit 100;

(2)上述改寫和offset 0 limit 100的效果相同,都是每個分庫返回了一頁數據(上圖中粉色部分);

 

 

(3)服務層得到2頁數據,內存排序,取出前100條數據,作為最終的第一頁數據,這個全局的第一頁數據,一般來說每個分庫都包含一部分數據(如上圖粉色部分);

 

這個方案也需要服務器內存排序,豈不是和“全局視野法”一樣么?第一頁數據的拉取確實一樣,但每一次“下一頁”拉取的方案就不一樣了。

 

點擊“下一頁”時,需要拉取第二頁數據,在第一頁數據的基礎之上,能夠找到第一頁數據time的最大值:

 

 

這個上一頁記錄的time_max,會作為第二頁數據拉取的查詢條件

(1)將查詢

order by time offset 100 limit 100;

改寫成

order by time where time>$time_max limit 100;

 

 

(2)這下不是返回2頁數據了(“全局視野法,會改寫成offset 0 limit 200”),每個分庫還是返回一頁數據(如上圖中粉色部分);

 

 

(3)服務層得到2頁數據,內存排序,取出前100條數據,作為最終的第2頁數據,這個全局的第2頁數據,一般來說也是每個分庫都包含一部分數據(如上圖粉色部分);

 

如此往復,查詢全局視野第100頁數據時,不是將查詢條件改寫為

offset 0 limit 9900+100;(返回100頁數據)

而是改寫為

time>$time_max99 limit 100;(仍返回一頁數據)

以保證數據的傳輸量和排序的數據量不會隨着不斷翻頁而導致性能下降。

 

方案三:允許數據精度損失法

“全局視野法”能夠返回業務無損的精確數據,在查詢頁數較大,例如第100頁時,會有性能問題,此時業務上是否能夠接受,返回的100頁不是精准的數據,而允許有一些數據偏差呢?

 

先來了解一下,數據庫分庫-數據均衡原理。

 

什么是,數據庫分庫-數據均衡原理?

使用patition key進行分庫,在數據量較大,數據分布足夠隨機的情況下,各分庫所有非patition key屬性,在各個分庫上,數據分布的統計概率情況是一致的。

 

例如,在uid隨機的情況下,使用uid取模分兩庫,db0和db1:

(1)性別屬性,如果db0庫上的男性用戶占比70%,則db1上男性用戶占比也應為70%;

(2)年齡屬性,如果db0庫上18-28歲少女用戶比例占比15%,則db1上少女用戶比例也應為15%;

(3)時間屬性,如果db0庫上每天10:00之前登錄的用戶占比為20%,則db1上應該是相同的統計規律;

 

 

 

利用這一原理,要查詢全局100頁數據,只要將:

offset 9900 limit 100;

改寫為

offset 4950 limit 50;

即每個分庫偏移一半4950),獲取半頁數據(50條),得到的數據集的並集,基本能夠認為,是全局數據的offset 9900 limit 100的數據,當然,這一頁數據並不是精准的。

 

根據實際業務經驗,用戶都要查詢第100頁網頁、帖子、郵件的數據了,這一頁數據的精准性損失,業務上往往是可以接受的,但此時技術方案的復雜度大大降低了,既不需要返回更多的數據,也不需要進行服務內存排序了。

畫外音:如果業務能夠接受,這種方案的性能最好,強烈推薦。

 

方案四:二次查詢法

有沒有一種技術方案,即能夠滿足業務的精確需要,無需業務折衷,又高性能的方法呢?這就是接下來要介紹的終極武器,“二次查詢法”。

 

為了方便舉例,假設一頁只有5條數據,查詢第200頁的SQL語句為:

select * from T order by time offset 1000 limit 5;

 

步驟一:查詢改寫

select * from T order by time offset 1000 limit 5;

改寫為

select * from T order by time offset 500 limit 5;

並投遞給所有的分庫,注意,這個offset的500,來自於全局offset的總偏移量1000,除以水平切分數據庫個數2。

畫外音:因為數據量比較大,數據隨機性較強,不妨設仍然符合“數據庫分庫-數據均衡定理”。

 

如果是3個分庫,則可以改寫為

select * from T order by time offset 333 limit 5;

 

假設這三個分庫返回的數據(time, uid)如下:

 

 

可以看到,每個分庫都是返回的按照time排序的一頁數據。

 

步驟二:找到所返回3頁全部數據的最小值

第一個庫,5條數據的time最小值是1487501123;

第二個庫,5條數據的time最小值是1487501133;

第三個庫,5條數據的time最小值是1487501143;

 

 

故,三頁數據中,time最小值來自第一個庫,time_min=1487501123,這個過程只需要比較各個分庫第一條數據,時間復雜度很低。

畫外音:這個time_min非常重要,后文每一個步驟要都要用到time_min。

 

步驟三:查詢二次改寫

第一次改寫的SQL語句是

select * from T order by time offset 333 limit 5;

 

第二次要改寫成一個between語句:

  • between的起點是time_min

  • between的終點是原來每個分庫各自返回數據的最大值

 

第一個分庫,第一次返回數據的最大值是1487501523

所以查詢改寫為:

select * from T order by time where time between time_min and 1487501523;

 

第二個分庫,第一次返回數據的最大值是1487501323

所以查詢改寫為

select * from T order by time where time between time_min and 1487501323;

 

第三個分庫,第一次返回數據的最大值是1487501553

所以查詢改寫為

select * from T order by time where time between time_min and 1487501553;

 

相對第一次查詢,第二次查詢條件放寬了,故第二次查詢會返回比第一次查詢結果集更多的數據,假設這三個分庫返回的數據(time, uid)如下:

 

 

可以看到:

分庫一的結果集,由於time_min來自原來的分庫一,所以分庫一的返回結果集和第一次查詢相同(所以其實這次訪問是可以省略的);

 

分庫二的結果集,比第一次多返回了1條數據,頭部的1條記錄(time最小的記錄)是新的(上圖中粉色記錄);

 

分庫三的結果集,比第一次多返回了2條數據,頭部的2條記錄(time最小的2條記錄)是新的(上圖中粉色記錄);

 

步驟四:在每個結果集中虛擬一個time_min記錄,找到time_min在全局的offset

 

 

在第一個庫中,time_min在第一個庫的offset是333;

 

在第二個庫中,(1487501133, uid_aa)的offset是333(根據第一次查詢條件得出的),故虛擬time_min在第二個庫的offset是331;

畫外音:從333往前推演。

 

在第三個庫中,(1487501143, uid_aaa)的offset是333(根據第一次查詢條件得出的),故虛擬time_min在第三個庫的offset是330;

 

畫外音:從333往前推演。

 

綜上,time_min在全局的offset是333+331+330=994。

 

步驟五:既然得到了time_min在全局的offset,就相當於有了全局視野,根據第二次的結果集,就能夠得到全局offset 1000 limit 5的記錄

 

 

第二次查詢在各個分庫返回的結果集是有序的,又知道了time_min在全局的offset是994,一路排下來,容易知道全局offset 1000 limit 5的一頁記錄(上圖中黃色記錄)。

 

這種方法的優點是:可以精確的返回業務所需數據,每次返回的數據量都非常小,不會隨着翻頁增加數據的返回量。

 

帥氣不帥氣!!!

 

總結

今天介紹了解決“跨N庫分頁”這一難題的四種方法:

 

方法一:全局視野法

(1)SQL改寫,將

order by time offset X limit Y;

改寫成

order by time offset 0 limit X+Y;

(2)服務層對得到的N*(X+Y)條數據進行內存排序,內存排序后再取偏移量X后的Y條記錄;

這種方法隨着翻頁的進行,性能越來越低。

 

方法二:禁止跳頁查詢法

(1)用正常的方法取得第一頁數據,並得到第一頁記錄的time_max;

(2)每次翻頁,將

order by time offset X limit Y;

改寫成

order by time where time>$time_max limit Y;

以保證每次只返回一頁數據,性能為常量。

 

方法三:允許模糊數據法

(1)SQL查詢改寫,將

order by time offset X limit Y;

改寫成

order by time offset X/N limit Y/N;

性能很高,但拼接的結果集不精准。

 

方法四:二次查詢法

(1)SQL改寫,將

order by time offset X limit Y;

改寫成

order by time offset X/N limit Y;

(2)多頁返回,找到最小值time_min;

(3)between二次查詢

order by time between $time_min and $time_i_max;

(4)設置虛擬time_min,找到time_min在各個分庫的offset,從而得到time_min在全局的offset;

(5)得到了time_min在全局的offset,自然得到了全局的offset X limit Y;


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM