在宇宙中有黑洞,在阿里云上也有。 2015年6月25日 9:52-10:08 期间,由于遭受大流量的攻击,主站被阿里云云盾打入黑洞,造成主站不能正常访问,给大家带来了很大的麻烦!在这里我们表示深深的歉意,望大家能够谅解! 整个事情发生的过程是这样的: 9:52,收到阿里云的通知短信 ...
大家好,非常抱歉 今天 : : 期间由于阿里云云盾流量清洗,以及切换IP后负载均衡的带宽跑满,影响了主站的正常访问,给您造成了很大的麻烦,请您谅解 故障的过程是这样的: : ,我们收到了来自阿里云云盾的通知短信: 阿里云 尊敬的用户:您的 IP 遭受外部流量攻击,已启动免费清洗服务... 以前也收到过几次这样的通知短信,根据以往的经验,这样的云盾流量清洗不会影响网站的正常访问。 可是今天收到短信后 ...
2015-06-01 14:08 4 2455 推荐指数:
在宇宙中有黑洞,在阿里云上也有。 2015年6月25日 9:52-10:08 期间,由于遭受大流量的攻击,主站被阿里云云盾打入黑洞,造成主站不能正常访问,给大家带来了很大的麻烦!在这里我们表示深深的歉意,望大家能够谅解! 整个事情发生的过程是这样的: 9:52,收到阿里云的通知短信 ...
2013年8月22日23:50~23:58左右,由于阿里云SLB(负载均衡)故障造成网站不能正常访问,给大家带来了麻烦,望大家谅解! 8月19日我们收到阿里云的短信通知: 尊敬的阿里云用户: 您好! 负载均衡(SLB)将于8月22日22:00 至 23日00:00进行 ...
非常抱歉!今天 12:03-12:52 ,由于数据库连接数异常突增超过1万,达到了阿里云RDS的最大连接数限制,影响了全站的正常访问。由此给您带来麻烦,请您谅解。 在发现数据库连接数突增的问题后,我们一开始怀疑可能是我们的某些应用中产生太多ADO.NET连接引起的,但是对嫌疑的应用 ...
非常抱歉,今天 10:05-10:20 左右,我们用阿里云服务器搭建的 docker swarm 集群又出现故障,又是因为突然的节点 CPU 波动。 受这次故障影响的站点有 闪存,博问,班级,园子,短信息,招聘,小组,网摘,openapi ,由此给您带来很大的麻烦,请您谅解。 故障前先是有一个 ...
今天上午 10: 40 左右,我们所使用的阿里云 RDS 实例的 CPU 突然飙高到近 100% ,造成大量数据库查询操作缓慢、超时,在这个恶劣条件下大量 memcached 缓存无法建立,这样的雪上加霜让 Web 服务器的 CPU 跟着不堪重负,于是要么访问缓慢,要么直接 503 。。。造成 ...
昨天 18:00 之后我们将自建 docker swarm 集群上的所有应用都切换到了阿里云 swarm 容器服务(非 swarm mode ,不支持 overlay 网络)的集群上。 今天晚上我们通过阿里云容器服务控制台将1个节点移出集群(当时集群中一共有9个节点) 没想到这样一个常规 ...
虚拟内存的,但昨天由于虚拟内存不够用,造成了服务器自动重启(详见云计算之路-阿里云上:禁用Window ...
注:不好意思,写的时候时间弄错了,应该是4天4次故障,7月25日未发生故障。 上海连续三天的高温,阿里云却是连续三天的故障! 2013年7月23日10:00~11:00,1小时RDS故障(详见云计算之路-阿里云上-阵雨:RDS故障的突袭) 2013年7月23日19:14~19:19,5 ...