1、場景:上千萬條消息在mq里積壓了幾個小時了還沒解決
2、解決:
-
1)先修復consumer的問題,確保其恢復消費速度,然后將現有cnosumer都停掉
-
2)新建一個topic,partition是原來的
10倍,臨時建立好原先
10倍或者
20倍的
queue數量
-
3)然后寫一個臨時的分發數據的consumer程序,這個程序部署上去消費積壓的數據,
-
消費之后不做耗時的處理,直接均勻輪詢寫入臨時建立好的
10倍數量的
queue
-
4)接着臨時征用
10倍的機器來部署consumer,每一批consumer消費一個臨時
queue的數據
-
5)這種做法相當於是臨時將
queue資源和consumer資源擴大
10倍,以正常的
10倍速度來消費數據
-
6)等快速消費完積壓數據之后,得恢復原先部署架構,重新用原先的consumer機器來消費消息
3、場景:rabbitmq設置過期時間的,就是TTL
說明:
-
如果消息在
queue中積壓超過一定的時間就會被rabbitmq給清理掉,這個數據就沒了。
-
那這就是第二個坑了。這就不是說數據會大量積壓在mq里,而是大量的數據會直接搞丟
4、解決:
-
丟了大量的消息。我們可以采取一個方案,就是批量重導,這個時候我們就開始寫程序,
-
將丟失的那批數據,寫個臨時程序,一點一點的查出來,然后重新灌入mq里面去,把白天丟的數據給他補回來