案例分享 | dubbo 2.7.12 bug導致線上故障


本文已收錄 https://github.com/lkxiaolou/lkxiaolou 歡迎star。搜索關注微信公眾號"捉蟲大師",后端技術分享,架構設計、性能優化、源碼閱讀、問題排查、踩坑實踐。

背景

最近某天的深夜,剛洗完澡就接到業務方打來電話,說他們的 dubbo 服務出故障了,要我協助排查一下。

電話里,詢問了他們幾點

  • 是線上有損故障嗎?——是
  • 止損了嗎?——止損了
  • 有保留現場嗎?——沒有

於是我打開電腦,連上 VPN 看問題。為了便於理解,架構簡化如下

image

只需要關注 A、B、C 三個服務,他們之間調用都是 dubbo 調用。

發生故障時 B 服務有幾台機器完全夯死,處理不了請求,剩余正常機器請求量激增,耗時增加,如下圖(圖一請求量、圖二耗時)

image

image

問題排查

由於現場已被破壞,只能先看監控和日志

  • 監控

除了上述監控外,翻看了 B 服務 CPU 和內存等基礎監控,發現故障的幾台機器內存上漲比較多,都達到了 80% 的水平線,且 CPU 消耗也變多

image

這時比較懷疑內存問題,於是看了下 JVM 的 fullGC 監控

image

果然 fullGC 時間上漲很多,基本可以斷定是內存泄漏導致服務不可用了。但為什么會內存泄漏,還無法看出端倪。

  • 日志

申請機器權限,查看日志,發現了一條很奇怪的 WARN 日志

[dubbo-future-timeout-thread-1] WARN org.apache.dubbo.common.timer.HashedWheelTimer$HashedWheelTimeout
(HashedWheelTimer.java:651) 
-  [DUBBO] An exception was thrown by TimerTask., dubbo version: 2.7.12, current host: xxx.xxx.xxx.xxx
java.util.concurrent.RejectedExecutionException: 
Task org.apache.dubbo.remoting.exchange.support.DefaultFuture$TimeoutCheckTask$$Lambda$674/1067077932@13762d5a 
rejected from java.util.concurrent.ThreadPoolExecutor@7a9f0e84[Terminated, pool size = 0, 
active threads = 0, queued tasks = 0, completed tasks = 21]

可以看出業務方使用的是2.7.12版本的 dubbo

拿這個日志去 dubbo 的 github 倉庫搜了一下,找到了如下這個 issue:

https://github.com/apache/dubbo/issues/6820

image

但很快排除了該問題,因為在 2.7.12 版本中已經是修復過的代碼了。

繼續又找到了這兩個 issue:

https://github.com/apache/dubbo/issues/8172

https://github.com/apache/dubbo/pull/8188

從報錯和版本上來看,完全符合,但沒有提及內存問題,先不管內存問題,看看是否可以按照 #8188 這個 issue 復現

image

issue中也說的比較清楚如何復現,於是我搭了這樣三個服務來復現,剛開始還沒有復現。通過修復代碼來反推

image

刪除代碼部分是有問題,但我們復現卻難以進入這塊,怎么才能進入呢?

這里一個 feature 代表一個請求,只有當請求沒有完成時才會進入,這就好辦了,讓 provider 一直不返回,肯定可以實現,於是在provider 端測試代碼加入

Thread.sleep(Integer.MAX_VALUE);

經過測試果然復現了,如 issue 所說,當 kill -9 掉第一個 provider 時,消費者全局 ExecutorService 被關閉,當 kill -9 第二個 provider 時,SHARED_EXECUTOR 也被關閉。

那么這個線程池是用來干什么的呢?

它在 HashedWheelTimer 中被用來檢測 consumer 發出的請求是否超時。

HashedWheelTimer 是 dubbo 實現的一種時間輪檢測請求是否超時的算法,具體這里不再展開,改天可以詳細寫一篇 dubbo 中時間輪算法。

當請求發出后,如果可以正常返回還好,但如果超過設定的超時時間還未返回,則需要這個線程池的任務來檢測,對已經超時的任務進行打斷。

如下代碼為提交任務,當這個線程池被關閉后,提交任務就會拋出異常,超時也就無法檢測。

public void expire() {
    if (!compareAndSetState(ST_INIT, ST_EXPIRED)) {
        return;
    }
    try {
        task.run(this);
    } catch (Throwable t) {
        if (logger.isWarnEnabled()) {
            logger.warn("An exception was thrown by " + TimerTask.class.getSimpleName() + '.', t);
        }
    }
}

到這里恍然大悟:如果請求一直發送,不超時,那是不是有可能撐爆內存?於是我又模擬了一下,並且開了 3 個線程一直請求 provider,果然復現出內存被撐爆的場景,而當不觸發這個問題時,內存是一直穩定在一個低水平上。

image

這里我用的 arthas 來看的內存變化,非常方便

得出結論

在本地復現后,於是跟業務方求證一下,這個問題復現還是比較苛刻的,首先得是異步調用,其次 provider 需要非正常下線,最后 provider 需要有阻塞,即請求一直不返回。

異步調用得到業務方的確認,provider 非正常下線,這個比較常見,物理機的故障導致的容器漂移就會出現這個情況,最后 provider 有阻塞這點也得到業務方的確認,確實 C 服務有一台機器在那個時間點附近僵死,無法處理請求,但進程又是存活的。

所以這個問題是 dubbo 2.7.12 的 bug 導致。翻看了下這個 bug 是 2.7.10 引入, 2.7.13 修復。

復盤

差不多花了1天的時間來定位和復現,還算順利,運氣也比較好,沒怎么走彎路,但這中間也需要有些地方需要引起重視。

  • 止損的同時最好能保留現場,如本次如果在重啟前 dump 下內存或摘除流量保留機器現場,可能會幫助加速定位問題。如配置 OOM 時自動 dump 內存等其他手段。這也是本起事故中不足的點
  • 服務的可觀測性非常重要,不管是日志、監控或其他,都要齊全。基本的如日志、出口、進口請求監控、機器指標(內存、CPU、網絡等)、JVM 監控(線程池、GC 等)。這點做的還可以,基本該有的都有
  • 開源產品,可從關鍵日志去網絡查找,極大概率你遇到的問題大家也遇到過。這也是這次幸運的點,少走了很多彎路

搜索關注微信公眾號"捉蟲大師",后端技術分享,架構設計、性能優化、源碼閱讀、問題排查、踩坑實踐。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM