為了更好地分享我們解決“黑色1秒”問題的過程,在這篇博文中我們將專門描述一下“黑色1秒”問題的表現。 “黑色1秒”是我們使用阿里雲以來繼“黑色10秒”之后遭遇的最奇特、最詭異、最難以捉摸、最富有戲劇性的問題。 它有2個最顯著的特征: 第一個是最直觀的表現,在Windows性能監視 ...
這篇博文分享的是我們針對一個耗時 秒的請求,用Wireshark進行抓包分析的過程。 請求的流程是這樣的:客戶端瀏覽器 gt SLB 負載均衡 gt ECS 雲服務器 gt SLB gt 客戶端瀏覽器。 下面是分析的過程: . 啟動Wireshark,針對內網網卡進行抓包。 . 在IIS日志中找出要分析的請求 借助Log Parser Studio 通過c ip Client IP Address ...
2014-06-15 17:30 6 21519 推薦指數:
為了更好地分享我們解決“黑色1秒”問題的過程,在這篇博文中我們將專門描述一下“黑色1秒”問題的表現。 “黑色1秒”是我們使用阿里雲以來繼“黑色10秒”之后遭遇的最奇特、最詭異、最難以捉摸、最富有戲劇性的問題。 它有2個最顯著的特征: 第一個是最直觀的表現,在Windows性能監視 ...
針對Web服務器“黑色30秒”問題(詳見雲計算之路-阿里雲上:Web服務器遭遇奇怪的“黑色30秒”問題),經過分析,我們准備從這個地方下手——為什么會出現\ASP.NET\Request Queued大於0的情況(為什么請求會排隊)? 首先, 通過Windows性能監視器去觀察,看能不能找到 ...
在昨天針對“黑色30秒”問題的分析中,我們猜測Requests Queued上升是由於正在處理的請求出不去(到達不了客戶端)。今天我們結合IIS日志驗證這個猜測。 IIS日志中有一個重要的指標——time-taken,time-taken不僅包含了請求在服務端執行的時間,還包含了響應的內容 ...
今天下午15:11-15:13間出現了類似“黑色30秒”的狀況,我們用強大的IIS日志分析工具——Log Parser Studio進行了進一步的分析。 分析情況如下—— 先看一下Windows性能監視器中的問題表現: 然后用Log Parser Studio分析07:11:55與07 ...
在這篇博文中,我們拋開對阿里雲的懷疑,完全從ASP.NET的角度進行分析,看能不能找到針對問題現象的更合理的解釋。 “黑色30秒”問題現象的主要特征是:排隊的請求(Requests Queued)突增,到達HTTP.SYS的請求數(Arrival Rate)下降,QPS(Requests/Sec ...
在之前對“黑色1秒”問題的分析博文中,我們將最大嫌疑對象鎖定在了Xen,在這篇博文我們將從Xen的角度進行分析。也許有人會問,為什么不知道天多高地多厚地去研究不屬於自己范圍的問題?只因我們對一個問題的強烈好奇心——究竟是不是我們用Windows的錯? (注1:文中所說的Xen補丁問題只是提供一種 ...
在雲上,底層的東西你無法觸及,遇到奇怪問題時只能靠猜想,所以使用雲計算會鍛煉你的想像力。 (上圖中藍色是ASP.NET的Requests Queued,另外一個是HTTP.SYS的Arrival Rate) 昨天我們發現了一個重要的線索——“黑色30秒”到來時,最初的表現是請求出現排隊 ...
超過70秒的請求是通過分析IIS日志發現的: 10.159.63.104是SLB的內網IP。 通過Wireshark抓包分析請求是9:22:21收到的(tcp.stream eq 23080): 這個請求響應內容的長度是:Content-Length 1154110 ...