線上發現執行某特定任務在某個特定時間點后不再work。該任務由線程池中線程執行定時周期性調度,根據日志查看無任何異常。從代碼研判應該無關定時任務框架,因為對提交的定時任務做了wrap,會將異常都catch住,保證下次仍然能夠正常調度。 通過jstack導出堆棧信息,發現問題線程的堆棧信息 ...
這兩天有同學使用數據校驗工具時發現進程hang住了,也不知道什么原因,我簡單看了看進程堆棧,問題雖然很簡單,但能導致程序hang住,也一定不是小問題。簡單說明下程序組件的結構,程序由兩部分構成,dbchk和dbchk inner,dbchk采用python代碼實現,dbchk inner采用C語言實現。dbchk負責並發控制,dbchk inner則負責具體的校驗任務。用戶通過運行dbchk命令 ...
2014-08-08 17:28 1 6955 推薦指數:
線上發現執行某特定任務在某個特定時間點后不再work。該任務由線程池中線程執行定時周期性調度,根據日志查看無任何異常。從代碼研判應該無關定時任務框架,因為對提交的定時任務做了wrap,會將異常都catch住,保證下次仍然能夠正常調度。 通過jstack導出堆棧信息,發現問題線程的堆棧信息 ...
官方issue並不承認這是一個問題,參考: https://github.com/prometheus/prometheus/issues/5727 https://github.com/prometheus/prometheus/issues/4324 有人認為是磁盤讀寫慢導致 ...
在執行mapreduce時,map成功后,reduce一直hang在17%。現象如下: [tianyc@TkHbase hadoop]$ hadoop jar contrib/streaming/hadoop-streaming-1.0.4.jar -mapper /home/tianyc ...
連續兩天tomcat出現了假死的情況,不響應任何請求。但是日志里面沒有看到任何相關異常。 調查方法,把當前內存堆棧和線程堆棧打印出來,然后進行分析。 #dump 方法棧信息 jstack $pid > /home/$pid/jstack.txt #dump jvm內存使用情況 ...
一 現象: 頁面卡死,影響時長:約10min 二 排查: 1 收到報警郵件,查看日志報如下log: 信用分fullgc分析總結 > image2018-12-6 19:50:54.png" src="http://wiki.lianjia.com/download ...
起因 開發反饋測試環境某 node 進程使用 pm2 log 查看日志提示端口沖突,pm2 restart 重啟進程問題依舊,但該服務可正常訪問。 處理過程: 訪問該服務 URL 業務正常,查看 Nginx access.log ,狀態碼為 200,即后端無異常。 pm2 log ...
實驗操作環境: 操作系統:Red Hat Enterprise Linux ES release 4 (Nahant Update 6) ...
現象: 同事負責的項目轉到我部門,整理服務過程中發現了隊列的積壓問題。 為了搞清楚積壓的嚴重程度, 對隊列任務數每分鍾進行一次采樣,生成一個走勢圖, 隊列積壓情況一目了然,非常嚴重。 分析: 聽了同事對系統的介紹,猜測是mongo性能影響了處理效率,於是針對mongo進行分析 ...