大量消息在mq里積壓了幾個小時了還沒解決
幾千萬條數據在MQ里積壓了七八個小時,最簡單的方法可以讓他恢復消費速度,然后等待幾個小時消費完畢。
一個消費者一秒是1000條,一秒3個消費者是3000條,一分鍾是18萬條,1000多萬條 ,所以如果你積壓了幾百萬到上千萬的數據,即使消費者恢復了,也需要大概1小時的時間才能恢復過來
一般這個時候,只能操作臨時緊急擴容了,具體操作步驟和思路如下:
先修復consumer的問題,確保其恢復消費速度,然后將現有cnosumer都停掉
新建一個topic,partition是原來的10倍,臨時建立好原先10倍或者20倍的queue數量
然后寫一個臨時的分發數據的consumer程序,這個程序部署上去消費積壓的數據,消費之后不做耗時的處理,直接均勻輪詢寫入臨時建立好的10倍數量的queue
接着臨時征用10倍的機器來部署consumer,每一批consumer消費一個臨時queue的數據
這種做法相當於是臨時將queue資源和consumer資源擴大10倍,以正常的10倍速度來消費數據
等快速消費完積壓數據之后,得恢復原先部署架構,重新用原先的consumer機器來消費消息
RabbitMQ中由於消息積壓導致過期被清理了怎么辦
假設你用的是rabbitmq,rabbitmq是可以設置過期時間的,就是TTL,如果消息在queue中積壓超過一定的時間就會被rabbitmq給清理掉,這個數據就沒了。
這就不是說數據會大量積壓在mq里,而是大量的數據會直接搞丟。
這個情況下,就不是說要增加consumer消費積壓的消息,因為實際上沒啥積壓,而是丟了大量的消息。
我們可以采取一個方案,就是批量重導。就是大量積壓的時候,我們當時就直接丟棄數據了,然后等過了高峰期以后,這個時候我們就開始寫程序,將丟失的那批數據,寫個臨時程序,一點一點的查出來,然后重新灌入mq里面去,把白天丟的數據給他補回來。
假設1萬個訂單積壓在mq里面,沒有處理,其中1000個訂單都丟了,你只能手動寫程序把那1000個訂單給查出來,手動發到mq里去再補一次