1 import urllib2 2 url="https//www.baidu.com"; 3 response=urllib2.urlopen(url); 4 print response.read()
5 #************************************同樣上面網頁的代碼可以通過request對象進行訪問************
request=urllib2.Request(url) response=urllib2.urlopen(request) print response.read()
1.上面顯示最簡單的網頁面的爬蟲,在實際的過程中爬取的頁面有服務器的登錄和cookie等網頁的登錄:
一般有POSt和GEt數據傳送方式:Get向服務器發送索取數據的請求直接暴露動態網頁上cookies同時GET傳送方式url鏈接字數限制,
POST,直接向服務器提出登錄請求:
最重要的區別是GET方式是直接以鏈接形式訪問,鏈接中包含了所有的參數,當然如果包含了密碼的話是一種不安全的選擇,不過你可以直觀地看到自己提交了什么內容。POST則不會在網址上顯示所有的參數,不過如果你想直接查看提交了什么就不太方便了,大家可以酌情選擇。
1 import urllib 2 import urllib2 3 from pip._vendor.requests.api import request 4 url="https://mail.qq.com/cgi-bin/loginpage?autologin=n&errtype=1&clientuin=2465923505¶m=&sp=&tfcont=22%20serialization%3A%3Aarchive%205%200%200%204%200%200%200%208%20authtype%201%204%209%20clientuin%2010%202465923505%206%20domain%206%20qq.com%202%20vm%203%20wsk&r=81a3f6c4a511bbe45ef3bcefd8e4e99e" 5 values={}; 6 values['username']="2465923505"; 7 values['password']="XXXXXXX" 8 9 data=urllib.urlencode(values) 10 request=urllib2.Request(url,data) 11 print request 12 response=urllib2.urlopen(request) 13 14 print response.read()