分布式緩存的面試題9


 

1、面試題

 

如何保證緩存與數據庫的雙寫一致性?

 

2、面試官心里分析

 

你只要用緩存,就可能會涉及到緩存與數據庫雙存儲雙寫,你只要是雙寫,就一定會有數據一致性的問題,那么你如何解決一致性問題?

 

3、面試題剖析

 

一般來說,就是如果你的系統不是嚴格要求緩存+數據庫必須一致性的話,緩存可以稍微的跟數據庫偶爾有不一致的情況,最好不要做這個方案,讀請求和寫請求串行化,串到一個內存隊列里去,這樣就可以保證一定不會出現不一致的情況

 

串行化之后,就會導致系統的吞吐量會大幅度的降低,用比正常情況下多幾倍的機器去支撐線上的一個請求。

 

 Cache Aside Pattern緩存+數據庫讀寫模式的分析


最經典的緩存+數據庫讀寫的模式,cache aside pattern

1、Cache Aside Pattern

(1)讀的時候,先讀緩存,緩存沒有的話,那么就讀數據庫,然后取出數據后放入緩存,同時返回響應

(2)更新的時候,先刪除緩存,然后再更新數據庫

 

2、為什么是刪除緩存,而不是更新緩存呢?

原因很簡單,很多時候,復雜點的緩存的場景,因為緩存有的時候,不簡單是數據庫中直接取出來的值

商品詳情頁的系統,修改庫存,只是修改了某個表的某些字段,但是要真正把這個影響的最終的庫存計算出來,可能還需要從其他表查詢一些數據,然后進行一些復雜的運算,才能最終計算出

現在最新的庫存是多少,然后才能將庫存更新到緩存中去

比如可能更新了某個表的一個字段,然后其對應的緩存,是需要查詢另外兩個表的數據,並進行運算,才能計算出緩存最新的值的

更新緩存的代價是很高的

是不是說,每次修改數據庫的時候,都一定要將其對應的緩存去跟新一份?也許有的場景是這樣的,但是對於比較復雜的緩存數據計算的場景,就不是這樣了

如果你頻繁修改一個緩存涉及的多個表,那么這個緩存會被頻繁的更新,頻繁的更新緩存

但是問題在於,這個緩存到底會不會被頻繁訪問到???

舉個例子,一個緩存涉及的表的字段,在1分鍾內就修改了20次,或者是100次,那么緩存跟新20次,100次; 但是這個緩存在1分鍾內就被讀取了1次,有大量的冷數據

28法則,黃金法則,20%的數據,占用了80%的訪問量

實際上,如果你只是刪除緩存的話,那么1分鍾內,這個緩存不過就重新計算一次而已,開銷大幅度降低

每次數據過來,就只是刪除緩存,然后修改數據庫,如果這個緩存,在1分鍾內只是被訪問了1次,那么只有那1次,緩存是要被重新計算的,用緩存才去算緩存

其實刪除緩存,而不是更新緩存,就是一個lazy計算的思想,不要每次都重新做復雜的計算,不管它會不會用到,而是讓它到需要被使用的時候再重新計算

mybatis,hibernate,懶加載,思想

查詢一個部門,部門帶了一個員工的list,沒有必要說每次查詢部門,都里面的1000個員工的數據也同時查出來啊

80%的情況,查這個部門,就只是要訪問這個部門的信息就可以了

先查部門,同時要訪問里面的員工,那么這個時候只有在你要訪問里面的員工的時候,才會去數據庫里面查詢1000個員工

 

 高並發場景下的緩存+數據庫雙寫不一致問題分析與解決方案設計

 


馬上開始去開發業務系統

從哪一步開始做,從比較簡單的那一塊開始做,實時性要求比較高的那塊數據的緩存去做

實時性比較高的數據緩存,選擇的就是庫存的服務

庫存可能會修改,每次修改都要去更新這個緩存數據; 每次庫存的數據,在緩存中一旦過期,或者是被清理掉了,前端的nginx服務都會發送請求給庫存服務,去獲取相應的數據

庫存這一塊,寫數據庫的時候,直接更新redis緩存

實際上沒有這么的簡單,這里,其實就涉及到了一個問題,數據庫與緩存雙寫,數據不一致的問題

圍繞和結合實時性較高的庫存服務,把數據庫與緩存雙寫不一致問題以及其解決方案,給大家講解一下

數據庫與緩存雙寫不一致,很常見的問題,大型的緩存架構中,第一個解決方案

大型的緩存架構全部講解完了以后,整套架構是非常復雜,架構可以應對各種各樣奇葩和極端的情況

 

1、最初級的緩存不一致問題以及解決方案

問題:先修改數據庫,再刪除緩存,如果刪除緩存失敗了,那么會導致數據庫中是新數據,緩存中是舊數據,數據出現不一致

解決思路

先刪除緩存,再修改數據庫,如果刪除緩存成功了,如果修改數據庫失敗了,那么數據庫中是舊數據,緩存中是空的,那么數據不會不一致

因為讀的時候緩存沒有,則讀數據庫中舊數據,然后更新到緩存中

 

2、比較復雜的數據不一致問題分析

數據發生了變更,先刪除了緩存,然后要去修改數據庫,此時還沒修改

一個請求過來,去讀緩存,發現緩存空了,去查詢數據庫,查到了修改前的舊數據,放到了緩存中

數據變更的程序完成了數據庫的修改

完了,數據庫和緩存中的數據不一樣了。。。。

 

3、為什么上億流量高並發場景下,緩存會出現這個問題?

只有在對一個數據在並發的進行讀寫的時候,才可能會出現這種問題

其實如果說你的並發量很低的話,特別是讀並發很低,每天訪問量就1萬次,那么很少的情況下,會出現剛才描述的那種不一致的場景

但是問題是,如果每天的是上億的流量,每秒並發讀是幾萬,每秒只要有數據更新的請求,就可能會出現上述的數據庫+緩存不一致的情況

高並發了以后,問題是很多的

4、數據庫與緩存更新與讀取操作進行異步串行化

更新數據的時候,根據數據的唯一標識,將操作路由之后,發送到一個jvm內部的隊列中

讀取數據的時候,如果發現數據不在緩存中,那么將重新讀取數據+更新緩存的操作,根據唯一標識路由之后,也發送同一個jvm內部的隊列中

一個隊列對應一個工作線程

每個工作線程串行拿到對應的操作,然后一條一條的執行

這樣的話,一個數據變更的操作,先執行,刪除緩存,然后再去更新數據庫,但是還沒完成更新

此時如果一個讀請求過來,讀到了空的緩存,那么可以先將緩存更新的請求發送到隊列中,此時會在隊列中積壓,然后同步等待緩存更新完成

這里有一個優化點,一個隊列中,其實多個更新緩存請求串在一起是沒意義的,因此可以做過濾,如果發現隊列中已經有一個更新緩存的請求了,那么就不用再放個更新請求操作進去了,直接等待前面的更新操作請求完成即可

待那個隊列對應的工作線程完成了上一個操作的數據庫的修改之后,才會去執行下一個操作,也就是緩存更新的操作,此時會從數據庫中讀取最新的值,然后寫入緩存中

如果請求還在等待時間范圍內,不斷輪詢發現可以取到值了,那么就直接返回; 如果請求等待的時間超過一定時長,那么這一次直接從數據庫中讀取當前的舊值

5、高並發的場景下,該解決方案要注意的問題

(1)讀請求長時阻塞

由於讀請求進行了非常輕度的異步化,所以一定要注意讀超時的問題,每個讀請求必須在超時時間范圍內返回

該解決方案,最大的風險點在於說,可能數據更新很頻繁,導致隊列中積壓了大量更新操作在里面,然后讀請求會發生大量的超時,最后導致大量的請求直接走數據庫

務必通過一些模擬真實的測試,看看更新數據的頻繁是怎樣的

另外一點,因為一個隊列中,可能會積壓針對多個數據項的更新操作,因此需要根據自己的業務情況進行測試,可能需要部署多個服務,每個服務分攤一些數據的更新操作

如果一個內存隊列里居然會擠壓100個商品的庫存修改操作,每隔庫存修改操作要耗費10ms區完成,那么最后一個商品的讀請求,可能等待10 * 100 = 1000ms = 1s后,才能得到數據

這個時候就導致讀請求的長時阻塞

一定要做根據實際業務系統的運行情況,去進行一些壓力測試,和模擬線上環境,去看看最繁忙的時候,內存隊列可能會擠壓多少更新操作,可能會導致最后一個更新操作對應的讀請求,會hang多少時間,如果讀請求在200ms返回,如果你計算過后,哪怕是最繁忙的時候,積壓10個更新操作,最多等待200ms,那還可以的

如果一個內存隊列可能積壓的更新操作特別多,那么你就要加機器,讓每個機器上部署的服務實例處理更少的數據,那么每個內存隊列中積壓的更新操作就會越少

其實根據之前的項目經驗,一般來說數據的寫頻率是很低的,因此實際上正常來說,在隊列中積壓的更新操作應該是很少的

針對讀高並發,讀緩存架構的項目,一般寫請求相對讀來說,是非常非常少的,每秒的QPS能到幾百就不錯了

一秒,500的寫操作,5份,每200ms,就100個寫操作

單機器,20個內存隊列,每個內存隊列,可能就積壓5個寫操作,每個寫操作性能測試后,一般在20ms左右就完成

那么針對每個內存隊列中的數據的讀請求,也就最多hang一會兒,200ms以內肯定能返回了

寫QPS擴大10倍,但是經過剛才的測算,就知道,單機支撐寫QPS幾百沒問題,那么就擴容機器,擴容10倍的機器,10台機器,每個機器20個隊列,200個隊列

大部分的情況下,應該是這樣的,大量的讀請求過來,都是直接走緩存取到數據的

少量情況下,可能遇到讀跟數據更新沖突的情況,如上所述,那么此時更新操作如果先入隊列,之后可能會瞬間來了對這個數據大量的讀請求,但是因為做了去重的優化,所以也就一個更新緩存的操作跟在它后面

等數據更新完了,讀請求觸發的緩存更新操作也完成,然后臨時等待的讀請求全部可以讀到緩存中的數據

(2)讀請求並發量過高

這里還必須做好壓力測試,確保恰巧碰上上述情況的時候,還有一個風險,就是突然間大量讀請求會在幾十毫秒的延時hang在服務上,看服務能不能抗的住,需要多少機器才能抗住最大的極限情況的峰值

但是因為並不是所有的數據都在同一時間更新,緩存也不會同一時間失效,所以每次可能也就是少數數據的緩存失效了,然后那些數據對應的讀請求過來,並發量應該也不會特別大

按1:99的比例計算讀和寫的請求,每秒5萬的讀QPS,可能只有500次更新操作

如果一秒有500的寫QPS,那么要測算好,可能寫操作影響的數據有500條,這500條數據在緩存中失效后,可能導致多少讀請求,發送讀請求到庫存服務來,要求更新緩存

一般來說,1:1,1:2,1:3,每秒鍾有1000個讀請求,會hang在庫存服務上,每個讀請求最多hang多少時間,200ms就會返回

在同一時間最多hang住的可能也就是單機200個讀請求,同時hang住

單機hang200個讀請求,還是ok的

1:20,每秒更新500條數據,這500秒數據對應的讀請求,會有20 * 500 = 1萬

1萬個讀請求全部hang在庫存服務上,就死定了

(3)多服務實例部署的請求路由

可能這個服務部署了多個實例,那么必須保證說,執行數據更新操作,以及執行緩存更新操作的請求,都通過nginx服務器路由到相同的服務實例上

(4)熱點商品的路由問題,導致請求的傾斜

萬一某個商品的讀寫請求特別高,全部打到相同的機器的相同的隊列里面去了,可能造成某台機器的壓力過大

就是說,因為只有在商品數據更新的時候才會清空緩存,然后才會導致讀寫並發,所以更新頻率不是太高的話,這個問題的影響並不是特別大

但是的確可能某些機器的負載會高一些。

復雜的數據庫+緩存雙寫一致保障方案:

 

 

 

 讀寫並發的時候復雜的數據庫+緩存雙寫不一致的場景:

 

 機器級別的請求路由問題:

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM