爬蟲(二):urllib庫文件的基礎和進階(python2.7)


1 import urllib2
2 url="https//www.baidu.com";
3 response=urllib2.urlopen(url);
4 print response.read()
5 #************************************同樣上面網頁的代碼可以通過request對象進行訪問************
request=urllib2.Request(url)
response=urllib2.urlopen(request)
print response.read()

 

1.上面顯示最簡單的網頁面的爬蟲,在實際的過程中爬取的頁面有服務器的登錄和cookie等網頁的登錄:

一般有POSt和GEt數據傳送方式:Get向服務器發送索取數據的請求直接暴露動態網頁上cookies同時GET傳送方式url鏈接字數限制,

POST,直接向服務器提出登錄請求:

最重要的區別是GET方式是直接以鏈接形式訪問,鏈接中包含了所有的參數,當然如果包含了密碼的話是一種不安全的選擇,不過你可以直觀地看到自己提交了什么內容。POST則不會在網址上顯示所有的參數,不過如果你想直接查看提交了什么就不太方便了,大家可以酌情選擇。

 

 1 import urllib
 2 import urllib2
 3 from pip._vendor.requests.api import request
 4 url="https://mail.qq.com/cgi-bin/loginpage?autologin=n&errtype=1&clientuin=2465923505&param=&sp=&tfcont=22%20serialization%3A%3Aarchive%205%200%200%204%200%200%200%208%20authtype%201%204%209%20clientuin%2010%202465923505%206%20domain%206%20qq.com%202%20vm%203%20wsk&r=81a3f6c4a511bbe45ef3bcefd8e4e99e"
 5 values={};
 6 values['username']="2465923505";
 7 values['password']="XXXXXXX"
 8 
 9 data=urllib.urlencode(values)
10 request=urllib2.Request(url,data)
11 print request
12 response=urllib2.urlopen(request)
13 
14 print response.read()

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM