悄悄地它又突然来了 —— 数据库服务器 CPU 100% 问题,上次光临时间是 3-30 8:48,这次是 4-28 9:41。 这次我们做出了快速反应,发现后立即进行主备切换,这次一次切换成功,CPU 很快恢复正常。 但是,这次来的“真”是时候(访问高峰),虽然数据库 CPU 恢复正常 ...
今天凌晨我们用阿里云服务器自建的 kubernetes 集群出现突发异常情况,博客站点 blog web 与博客 web api blog api 的 pod 无法正常启动 CrashLoopBackOff 。 kubectl get pods l app blog web kubectl get pods l app blog api CrashLoopBackOff 的原因是将 CofigMa ...
2021-01-27 12:12 6 2131 推荐指数:
悄悄地它又突然来了 —— 数据库服务器 CPU 100% 问题,上次光临时间是 3-30 8:48,这次是 4-28 9:41。 这次我们做出了快速反应,发现后立即进行主备切换,这次一次切换成功,CPU 很快恢复正常。 但是,这次来的“真”是时候(访问高峰),虽然数据库 CPU 恢复正常 ...
非常抱歉,昨天 18:40~19:10 再次遭遇上次遇到的 SQL 语句执行超时引发的网站首页访问故障,由此您带来麻烦,请您谅解。 上次故障详见之前的故障公告,上次排查下来以为是 SQL Server 参数嗅探问题引起的,但在引起参数嗅探的漏洞被修复后再次出现故障说明上次的判断是错误 ...
非常抱歉,今天早上 6:37~8:15 期间,由于获取网站首页博文列表的 SQL 语句出现突发的查询超时问题,造成访问网站首页时出现 500 错误,由此给您带来麻烦,请您谅解。 故障的情况是这样的。 故障期间日志中记录了大量下面的错误。 数据库服务器(阿里云 RDS SQL ...
非常非常抱歉,新年上班第一天, 在今天阿里云上气候突变情况下,由于我们开船技术差,在今天 10:15~12:00 左右的访问高峰,我们竟然把船给开翻了,造成近2个小时整个博客站点无法访问,由此给您带来很大很大的麻烦,恳请您的谅解。 翻船经过如下。 翻船前的船只情况 博客站点正在使用的 k8s ...
我们的生产环境部署了 2 个 docker swarm 集群,集群 swarm-a 用于专门跑博客站点,集群 swarm-b 用于跑其他站点,manager 节点用了阿里云包月服务器,worker 节 ...
再次向大家致歉!网站故障给您带来麻烦了!请谅解! 经过分析,确认4月16日下午15:30~18:00的网站故障是由两种类型的System.Data.SqlClient.SqlException (0x80131904)异常引起的。 一个是 ...
非常抱歉,今天下午2点左右开始,博客站点突然猛增的巨量请求让k8s集群的节点服务器不堪重负,造成网站无法正常访问,由此给您带来麻烦,请您谅解。 当时k8s集群一共6台node服务器,2台32核64G,2台8核64G,1台8核16G,1台4核6G,博客站点一共跑了19个pod,如果不是突然猛增 ...
非常抱歉,从昨天上午开始,部署在 k8s 集群上的博客后台(基于 .NET Core 3.1 + Angular 8.2 实现)出现奇怪问题,一到访问高峰就多次出现 502 ,有时能自动恢复,有时需要我们手动删除 pod ,由此给您带来麻烦,请您谅解。 我们的应用都部署在同一个 k8s 集群 ...