必須需要了解的:
1.requests請求的底層實現其實就是urllib3
2.Requests的文檔非常完備,中文文檔也相當不錯.Requests能完全滿足當前網絡的需求,支持Python 2.6-3.5,而且能在PyPy下完美運行。
3.開源地址:https://github.com/kennethreitz/requests
4.中文文檔API:http: //docs.python-requests.org/zh_CN/latest/index.html
5.口號:讓 HTTP 服務人類¶
6.Requests:唯一的一個非轉基因的 Python HTTP 庫,人類可以安全享用。
警告:非專業使用其他 HTTP 庫會導致危險的副作用,包括:安全缺陷症、冗余代碼症、重新發明輪子症、啃文檔症、抑郁、頭疼、甚至死亡。
不要跟我說你還在用urlib urlib2 做爬蟲,更不要跟我說它們有它們的靈活,哪些都是夢,痴人說的夢!!!!!!!!
一.安裝方式(支持Python 2.6-3.5),建議在虛擬環境中進行學習/安裝使用
利用pip安裝或者使用easy_install都可以完成安裝:
$ pip install requests
$ easy_install requests
二.基本GET請求(headers參數和parmas參數)
1.最基本的GET請求可以直接用get方法
import requests
response = requests.get("http://www.baidu.com/") # 也可以這么寫 # response = requests.request("get", "http://www.baidu.com/")
2.添加標題和查詢參數
如果想添加標題,可以傳入headers參數來增加請求頭中的標題信息。如果要將參數放在url中傳遞,可以利用params參數。
import requests kw = {'wd':'蒼井空'} headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"} # params 接收一個字典或者字符串的查詢參數,字典類型自動轉換為url編碼,不需要urlencode() response = requests.get("http://www.baidu.com/s?", params = kw, headers = headers) # 查看響應內容,response.text 返回的是Unicode格式的數據 print response.text # 查看響應內容,response.content返回的字節流數據 print respones.content # 查看完整url地址 print response.url # 查看響應頭部字符編碼 print response.encoding # 查看響應碼 print response.status_code
對上述代碼的注釋說明:
-
使用response.text時,請求會基於HTTP響應的文本編碼自動解碼響應內容,大多數Unicode字符集都能被無縫地解碼。
-
使用response.content時,返回的是服務器響應數據的原始二進制字節流,可以用來保存圖片等二進制文件。
三.基本POST請求(數據參數)
1.最基本的GET請求可以直接用post方法
response = requests.post("http://www.baidu.com/", data = data)
2.傳入數據
對於POST請求來說,我們一般需要為它增加一些參數。那么最基本的傳參方法可以利用data這個參數。
import requests formdata = { "type":"AUTO", "i":"i love python", "doctype":"json", "xmlVersion":"1.8", "keyfrom":"fanyi.web", "ue":"UTF-8", "action":"FY_BY_ENTER", "typoResult":"true" } url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null" headers={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"} response = requests.post(url, data = formdata, headers = headers) print response.text # 如果是json文件可以可以使用response 對象的json()獲取到數據 print response.json()
四.代理的使用(代理參數)
1.如果需要使用代理,可以你通過為任意請求方法提供proxies參數來配置單個請求:
mport requests # 根據協議類型,選擇不同的代理 proxies = {"http": "http://12.34.56.79:9527"} response = requests.get("http://www.baidu.com", proxies = proxies) print response.text
2.私密代理驗證(特定格式) 和 Web客戶端驗證(auth 參數)
私密代理
import requests # 如果代理需要使用HTTP Basic Auth,可以使用下面這種格式:
#用戶名 密碼
proxy = { "http": "mr_mao_hacker:sffqry9r@61.158.163.130:16816" } response = requests.get("http://www.baidu.com", proxies = proxy) print response.text
web客戶端驗證: 如果是Web客戶端驗證,需要添加 auth = (賬戶名, 密碼)
import requests auth=('test', '123456') response = requests.get('http://192.168.199.107', auth = auth) print response.text
urllib2 看到了,瞬間淚奔,隨后大哭起來.............................................................................
五.Cookies 和 Session
1.Cookies
如果一個響應中包含了cookie,那么我們可以利用 cookies參數拿到:
import requests response = requests.get("http://www.baidu.com/") # 7. 返回CookieJar對象: cookiejar = response.cookies # 8. 將CookieJar轉為字典: cookiedict = requests.utils.dict_from_cookiejar(cookiejar) print cookiejar print cookiedict
2.session
在 requests 里,session對象是一個非常常用的對象,這個對象代表一次用戶會話:從客戶端瀏覽器連接服務器開始,到客戶端瀏覽器與服務器斷開。
會話能讓我們在跨請求時候保持某些參數,比如在同一個 Session 實例發出的所有請求之間保持 cookie 。
實現人人網登錄
import requests # 1. 創建session對象,可以保存Cookie值 ssion = requests.session() # 2. 處理 headers headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"} # 3. 需要登錄的用戶名和密碼 data = {"email":"mr_mao_hacker@163.com", "password":"alarmchime"} # 4. 發送附帶用戶名和密碼的請求,並獲取登錄后的Cookie值,保存在ssion里 ssion.post("http://www.renren.com/PLogin.do", data = data) # 5. ssion包含用戶登錄后的Cookie值,可以直接訪問那些登錄后才可以訪問的頁面 response = ssion.get("http://www.renren.com/410043129/profile") # 6. 打印響應內容 print response.text
6.處理HTTPS請求 SSL證書驗證
Requests也可以為HTTPS請求驗證SSL證書:
- 要想檢查某個主機的SSL證書,你可以使用 verify 參數(也可以不寫)
-
import requests response = requests.get("https://www.baidu.com/", verify=True) # 也可以省略不寫 # response = requests.get("https://www.baidu.com/") print response.text
- 如果SSL證書驗證不通過,或者不信任服務器的安全證書,則會報出SSLError,據說 12306 證書是自己做的,如果我們想跳過 12306 的證書驗證,把 verify 設置為 False 就可以正常請求了:
-
response = requests.get("https://www.12306.cn/mormhweb/", verify = False)
