對於請求一些網站,我們需要加上請求頭才可以完成網頁的抓取,不然會得到一些錯誤,無法返回抓取的網頁。下面,介紹兩種添加請求頭的方法。
方法一:借助build_opener和addheaders完成
1 import urllib.request
2 url="http://www.meizitu.com"
3 #注意:在urllib 中headers是元組
4 headers=("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE")
5 
6 opener=urllib.request.build_opener()
7 opener.addheaders=[headers]
8 data=opener.open(url)
9 print(data.read()) 
          
        
注意:此處的headers要寫為一個元組類型才可以。寫為字典類型的話會報錯!
方法二、創建一個Request實例對象
 1 # 案例1
 2 import urllib.request
 3 url="http://www.meizitu.com"
 4 #注意:在urllib 中這種的headers 是需要是字典的
 5 headers={"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE"}
 6 req=urllib.request.Request(url=url,headers=headers)
 7 file=urllib.request.urlopen(req)
 8 
 9 #出現有些解碼錯誤的話,加上“ignore”就可以啦
10 print(file.read().decode("utf-8",'ignore')) 
          
        - 注意:此處的headers要寫為一個字典類型才可以。
 - 創建一個Reques對象,把需要的headers,url,proxy 都放進去,或者在post 請求中還可以把編碼過后的data 值放進去,再用urlopen 打開,就比較方便了。
 
另外,這種方法還可以用add_headers()來添加headers,代碼如下:
 1 import urllib.request
 2 try:
 3     url="http://www.meizitu.com"
 4     
 5     req=urllib.request.Request(url=url)
 6  
 7     req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE")
 8     file=urllib.request.urlopen(req,timeout=10.1)
 9 
10     print(file.read().decode("utf-8",'ignore'))
11 except Exception as e:
12     print("時間超時",str(e)) 
          
        總結:通過以上兩種方法,可以完成請求頭的相關參數設置,但是得注意headers是用字典類型來傳入還是元組類型。

