原文:記一次jvm瘋狂gc導致CPU飆高的問題解決

記錄一次java虛擬機CPU飆高的異常處理 線上web服務器不時的出現非常卡的情況,登錄服務器top命令發現服務器CPU非常的高, 重啟tomcat之后CPU恢復正常,半天或者一天之后又會偶現同樣的問題。 解決問題首先要找到問題的爆發點,對於偶現的問題是非常難於定位的。 重啟服務器之后只能等待問題再次出現,這時候首先懷疑是否某個定時任務引發大量計算或者某個請求引發了死循環, 所以先把代碼里面所有懷 ...

2019-12-31 16:16 0 2159 推薦指數:

查看詳情

一次JAVA進程導致Kubernetes節點CPU的排查與解決

一、發現問題一次系統上線后,我們發現某幾個節點在長時間運行后會出現CPU持續飆升的問題導致的結果就是Kubernetes集群的這個節點會把所在的Pod進行驅逐(調度);如果調度到同樣問題的節點上,也會出現Pod一直起不來的問題。我們嘗試了殺死Pod后手動調度的辦法(label ...

Fri Apr 10 22:12:00 CST 2020 1 1940
[JVM]一次線上頻繁GC問題解決

起因:周末測試發現線上mq消息積壓了十幾萬的消息,如下圖所示 每個隊列幾萬的消息,立即采取緊急措施,將隊列下線重新上線。 處理積壓消息的量,調用量起來了,很快消息積壓解決了。開始事件復盤。 首先分析是否是消息消費能力跟不上消息產生原因,看入口消息,QPS是29.6 消息消費 ...

Thu Mar 21 01:27:00 CST 2019 0 2130
[JVM]線上CPU負載持續問題解決

1. 周二新需求提測之后,運行到晚上,收到告警短信,生產環境CPU負載過高,先解決問題再排查,運維擴容,有問題機器下線重啟上線,CPU使用率正常,服務正常響應。 2. 開始排查問題,把預留的一台有問題的機器用於排查問題, 第一步,看相關的日志,沒有明顯的異常。然后top 命令查看cpu資源 ...

Thu Sep 19 10:38:00 CST 2019 1 328
一次FGC導致CPU的排查過程

今天測試團隊反饋說,服務A的響應很慢,我在想,測試環境也會慢?於是我自己用postman請求了一下接口,真的很慢,竟然要2s左右,正常就50ms左右的。 於是去測試服務器看了一下,發現服務器負載很高,並且該服務A占了很高的cpu。先用top命令,看了load average,發現 ...

Mon Jun 01 18:25:00 CST 2020 4 1260
一次 dependencyManagement 問題解決

使用場景 定義在parent項目中,管理children中引入的依賴版本信息 定義來說比叫簡單,既然在父項目中定義了 創建maven項目,項目結構 wangshuyu-center pom ...

Thu Nov 18 00:22:00 CST 2021 0 104
一次排查CPU問題

背景 將log4j.xml的日志級別從error調整為info后,進行壓測發現CPU占用很高達到了90%多(之前也就是50%,60%的樣子). 問題排查 排查思路: 看進程中的線程到底執行的是什么,導致CPU占用較高. 1. 使用top命令查看到底是哪個應用 ...

Fri Nov 05 23:34:00 CST 2021 0 435
一次生產環境docker服務CPU排查

今天早上,運維同學發現生產某個服務 CPU 持續,於是開始進行排查: 1、首先使用 top 命令,查看 CPU 占用的進程,得到進程 ID    2、根據上一步找到的進程ID,ps -ef | grep [進程ID] 找到對應程序    3、進入程序對應docker容器 ...

Sat Dec 25 01:25:00 CST 2021 0 1148
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM