线上发现执行某特定任务在某个特定时间点后不再work。该任务由线程池中线程执行定时周期性调度,根据日志查看无任何异常。从代码研判应该无关定时任务框架,因为对提交的定时任务做了wrap,会将异常都catch住,保证下次仍然能够正常调度。 通过jstack导出堆栈信息,发现问题线程的堆栈信息 ...
这两天有同学使用数据校验工具时发现进程hang住了,也不知道什么原因,我简单看了看进程堆栈,问题虽然很简单,但能导致程序hang住,也一定不是小问题。简单说明下程序组件的结构,程序由两部分构成,dbchk和dbchk inner,dbchk采用python代码实现,dbchk inner采用C语言实现。dbchk负责并发控制,dbchk inner则负责具体的校验任务。用户通过运行dbchk命令 ...
2014-08-08 17:28 1 6955 推荐指数:
线上发现执行某特定任务在某个特定时间点后不再work。该任务由线程池中线程执行定时周期性调度,根据日志查看无任何异常。从代码研判应该无关定时任务框架,因为对提交的定时任务做了wrap,会将异常都catch住,保证下次仍然能够正常调度。 通过jstack导出堆栈信息,发现问题线程的堆栈信息 ...
官方issue并不承认这是一个问题,参考: https://github.com/prometheus/prometheus/issues/5727 https://github.com/prometheus/prometheus/issues/4324 有人认为是磁盘读写慢导致 ...
在执行mapreduce时,map成功后,reduce一直hang在17%。现象如下: [tianyc@TkHbase hadoop]$ hadoop jar contrib/streaming/hadoop-streaming-1.0.4.jar -mapper /home/tianyc ...
连续两天tomcat出现了假死的情况,不响应任何请求。但是日志里面没有看到任何相关异常。 调查方法,把当前内存堆栈和线程堆栈打印出来,然后进行分析。 #dump 方法栈信息 jstack $pid > /home/$pid/jstack.txt #dump jvm内存使用情况 ...
一 现象: 页面卡死,影响时长:约10min 二 排查: 1 收到报警邮件,查看日志报如下log: 信用分fullgc分析总结 > image2018-12-6 19:50:54.png" src="http://wiki.lianjia.com/download ...
起因 开发反馈测试环境某 node 进程使用 pm2 log 查看日志提示端口冲突,pm2 restart 重启进程问题依旧,但该服务可正常访问。 处理过程: 访问该服务 URL 业务正常,查看 Nginx access.log ,状态码为 200,即后端无异常。 pm2 log ...
实验操作环境: 操作系统:Red Hat Enterprise Linux ES release 4 (Nahant Update 6) ...
现象: 同事负责的项目转到我部门,整理服务过程中发现了队列的积压问题。 为了搞清楚积压的严重程度, 对队列任务数每分钟进行一次采样,生成一个走势图, 队列积压情况一目了然,非常严重。 分析: 听了同事对系统的介绍,猜测是mongo性能影响了处理效率,于是针对mongo进行分析 ...