《C# 爬蟲 破境之道》:第二境 爬蟲應用 — 第三節:處理壓縮數據


續上一節內容,本節主要講解一下Web壓縮數據的處理方法。

在HTTP協議中指出,可以通過對內容壓縮來減少網絡流量,從而提高網絡傳輸的性能。

那么問題來了,在HTTP中,采用的是什么樣的壓縮格式和機制呢?

 

首先呢,先說壓縮格式,主要有三種:

我們這里就不細琢磨了,格式里面又有算法,又有規則什么的,我也搞不清楚,說多了,挨罵……理解上,就相當於我們常用的Zip、7Zip、RAR等壓縮格式;

但是需要注意的是,ZLIB和GZIP都是使用的DEFLATE,這就有點兒意思了,后面再說:)

 

說完壓縮格式,再來說機制,分為兩條路子(請求、回復):

  • 請求:在request header中指定Accept-Encoding。例如:Accept-Encoding: gzip, deflate, compress, br;Accept-Encoding在Headers中是可選的,可以不指定;當然,其中還有一些規則,后面我們結合回復一起給出;
  • 回復:在response header中指定Content-Encoding。例如:Content-Encoding: gzip;Content-Encoding在Headers中也是可選的,可以不指定;不過現在大多數站點都會對內容進行壓縮,不過通常不會對圖片及視頻等已經經過壓縮的資源進行壓縮,因為得不償失啊;

來解釋一下,首先客戶端(比如說瀏覽器)發出請求,我們在使用瀏覽器的過程中,一般就只是輸入一個網址或點擊某個連接,不會刻意去填寫一下Accept-Encoding,但是瀏覽器會為我們添加;這個Accept-Encoding,就是告訴網站服務器端,我(瀏覽器)可以解釋這幾種壓縮格式(一個列表),你(網站服務器)要是壓縮,就給我這幾種格式,否則,就不要壓縮了;網站服務器端收到請求后,進行解析,看看有沒有自己能夠使用的壓縮格式,如果有,那么就進行壓縮,如果有多個可以使用,那就要看優先級,選擇優先級最高的格式進行壓縮(后面列出規則),並將使用的壓縮格式填入Content-Encoding中發送回客戶端;客戶端(瀏覽器)收到回復以后,就看Content-Encoding有沒有值,如果有並且自己也認識,那么就可以正常解壓,顯示在界面上了。

這個就是壓縮的機制了,一切看起來那么的和諧,但在互聯網的世界,總是不缺乏“驚喜”,即使客戶端不指定任何Accept-Encoding,服務器端也會根據情況返回Content-Encoding,這就迫使瀏覽器,還必須得有兩把刷子,否則就傻眼了。

HTTP Header中Accept-Encoding 是瀏覽器發給服務器,聲明瀏覽器支持的編碼類型[1] 
常見的有
Accept-Encoding: compress, gzip          //支持compress 和gzip類型
Accept-Encoding:                               //默認是identity
Accept-Encoding: *                            //支持所有類型
Accept-Encoding: compress;q=0.5, gzip;q=1.0//按順序支持 gzip , compress
Accept-Encoding: gzip;q=1.0, identity; q=0.5, *;q=0 // 按順序支持 gzip , identity
服務器返回的對應的類型編碼header是 content-encoding.服務器處理accept-encoding的規則如下所示:
1. 如果服務器可以返回定義在Accept-Encoding 中的任何一種Encoding類型, 那么處理成功(除非q的值等於0, 等於0代表不可接受) 
2. * 代表任意一種Encoding類型 (除了在Accept-Encoding中顯示定義的類型) 
3. 如果有多個Encoding同時匹配, 按照q值順序排列 
4. identity總是可被接受的encoding類型(除非明確的標記這個類型q=0) 

如果Accept-Encoding的值是空, 那么只有identity是會被接受的類型
如果Accept-Encoding中的所有類型服務器都沒法返回, 那么應該返回406錯誤給客戶端
如果request中沒有Accept-Encoding 那么服務器會假設所有的Encoding都是可以被接受的。
如果Accept-Encoding中有identity 那么應該優先返回identity (除非有q值的定義,或者你認為另外一種類型是更有意義的)
注意:
如果服務器不支持identity 並且瀏覽器沒有發送Accept-Encoding,那么服務器應該傾向於使用HTTP1.0中的 "gzip" and "compress" , 服務器可能按照客戶端類型發送更適合的encoding類型
大部分HTTP1.0的客戶端無法處理q值

Accept-Encoding與Content-Encoding的規則
Accept-Encoding 與 Content-Encoding 的對應規則

 

另外,需要額外說明的是,在Accept-Encoding中指定的delfate,可不一定是DEFLATE壓縮格式,按照官方的說法:

  • gzip,一種由文件壓縮程序「Gzip,GUN zip」產生的編碼格式,描述於 RFC 1952。這種編碼格式是一種具有 32 位 CRC 的 Lempel-Ziv 編碼(LZ77);
  • deflate,由定義於 RFC 1950 的「ZLIB」編碼格式與 RFC 1951 中描述的「DEFLATE」壓縮機制組合而成的產物;

也就是說,deflate其實對應的應該是ZLIB壓縮格式,而它的名字,又與DEFLATE格式重名(估計這位同仁會被祭天了吧),導致很多瀏覽器廠商不知道究竟該用哪種格式來解釋Content-Encoding: deflate,因為不論你選擇哪種,都會有例外發生,這就尷尬了。所以,盡管deflate的壓縮效果要比gzip好,但還是會被不少Web-Server放棄或者降低優先級。這也就是為什么我們會經常看到Content-Encoding: gzip而很少能看到Content-Encoding: deflate的原因;所以,我們在做爬蟲的時候,也應該盡量避免使用deflate,減少不必要的麻煩。

 

話鋒一轉,回到我們的爬蟲,也會遇到上面瀏覽器遇到的尷尬場面,所以,就必須得事先准備好常用的解壓縮方式,要不然,數據抓下來了,讀不出來,你說氣不氣~

本節中,我們就來繼續改造我們的爬蟲框架,讓它也有兩把刷子:)

[Code 2.3.1]

 1 public static byte[] DecompressStreamData(Stream sourceStream, String contentEncoding)
 2 {
 3     var _stream = sourceStream;
 4     switch ((contentEncoding ?? string.Empty).ToLower())
 5     {
 6         case "gzip":
 7             _stream = new GZipStream(sourceStream, CompressionMode.Decompress);
 8             break;
 9         case "deflate":
10             _stream = new DeflateStream(sourceStream, CompressionMode.Decompress);
11             break;
12         default:
13             break;
14     }
15     using (var memory = new MemoryStream())
16     {
17         int length = 256;
18         Byte[] buffer = new Byte[length];
19         int bytesRead = _stream.Read(buffer, 0, length);
20         while (bytesRead > 0)
21         {
22             memory.Write(buffer, 0, bytesRead);
23             bytesRead = _stream.Read(buffer, 0, length);
24         }
25         return memory.ToArray();
26     }
27 }
DecompressStreamData 靜態方法

這是一個公共靜態方法,其目的就是將原數據流中的數據轉換為byte[]數組,其中,如果指定了壓縮格式,就會使用適當的方法進行解壓。這里只提供了最常見的gzip和不推薦的deflate兩種格式,可以自行擴展。

 

接下來,就是對工蟻(WorkerAnt)進行改造了。

[Code 2.3.2]

 1 private void GetResponse(JobContext context)
 2 {
 3     context.Request.BeginGetResponse(new AsyncCallback(acGetResponse =>
 4     {
 5         var contextGetResponse = acGetResponse.AsyncState as JobContext;
 6         using (contextGetResponse.Response = contextGetResponse.Request.EndGetResponse(acGetResponse))
 7         using (contextGetResponse.ResponseStream = contextGetResponse.Response.GetResponseStream())
 8         using (contextGetResponse.Memory = new MemoryStream())
 9         {
10             // 此處省略N行……
11 
12             if (TaskStatus.Running == contextGetResponse.JobStatus)
13             {
14                 if (!String.IsNullOrEmpty(contextGetResponse.Response.Headers["Content-Encoding"]))
15                 {
16                     contextGetResponse.Memory.Seek(0, SeekOrigin.Begin);
17                     contextGetResponse.Buffer = DecompressStreamData(contextGetResponse.Memory
18                         , contextGetResponse.Response.Headers["Content-Encoding"]);
19                     //contextGetResponse.Buffer = contextGetResponse.Memory.ToArray();
20                 }
21                 else
22                     contextGetResponse.Buffer = contextGetResponse.Memory.ToArray();
23 
24                 contextGetResponse.JobStatus = TaskStatus.RanToCompletion;
25                 NotifyStatusChanged(new JobEventArgs { Context = context, EventAnt = this, });
26             }
27 
28             contextGetResponse.Buffer = null;
29         }
30     }), context);
31 }
改造WorkerAnt的GetResponse方法

注釋中是原來使用的方法,現在用上面的DecompressStreamData替換掉了。

 

這樣我們在收到采集完成事件通知時,就可以得到解壓縮后的數據了:

[Code 2.3.3]

 1 switch (args.Context.JobStatus)
 2 {
 3     // 此處省略N行……
 4     case TaskStatus.RanToCompletion:
 5         if (null != args.Context.Buffer && 0 < args.Context.Buffer.Length)
 6         {
 7             Task.Factory.StartNew(oBuffer =>
 8             {
 9                 var content = new UTF8Encoding(false).GetString((byte[])oBuffer);
10                 richOutput.EndInvoke(richOutput.BeginInvoke(new MethodInvoker(() => { richOutput.Text = content; })));
11             }, args.Context.Buffer, TaskCreationOptions.LongRunning);
12         }
13         if (null != args.Context.Watch)
14             Console.WriteLine("/* ********************** using {0}ms / request  ******************** */"
15                 + Environment.NewLine + Environment.NewLine, (args.Context.Watch.Elapsed.TotalMilliseconds / 100).ToString("000.00"));
16         break;
17     // 此處省略N行……
18     default:/* Do nothing on this even. */
19         break;
20 }
改造應用中對事件的處理

至於為何在Complete事件的位置處理解壓縮,而不在Running事件的位置,這是gzip的限制,它具有CRC校驗位,CRC的算法,大家可以在網上搜索,大體上說,就是遍歷一遍所有數據,進行與或計算,最終得到一個校驗位,來保證數據的完整性與正確性。這也導致我們無法對中間數據進行解壓,因為沒有校驗位,對末尾數據解壓,又因數據不全,CRC計算結果也不會對。

 

至此,我們就完成了對HTTP協議內容部分已壓縮數據的處理,拋磚引玉,可以實現更多種壓縮格式的處理;

 

節外生枝:

  • 本節講述的數據壓縮,指的是HTTP協議中,對協議內容部分的壓縮,在HTTP 2.x的版本中,增加了對協議頭部的壓縮(更確切的說是緩存)的機制,用空間換時間,由於2.x版本Schema為HTTPS,處理起來,另有蹊蹺,本節先不做深入介紹了,可作為延伸內容,有興趣的童鞋可以搜索相關主題;
  • 為了方便以后的做更多更好的案例,源碼中增加了一個WinForm項目,這樣在切換Uri的時候,就更方便一些;

 

喜歡本系列叢書的朋友,可以點擊鏈接加入QQ交流群(994761602)【C# 破境之道】
方便各位在有疑問的時候可以及時給我個反饋。同時,也算是給各位志同道合的朋友提供一個交流的平台。
需要源碼的童鞋,也可以在群文件中獲取最新源代碼。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM