Python爬蟲模擬登錄帶驗證碼網站


問題分析:

1、爬取網站時經常會遇到需要登錄的問題,這是就需要用到模擬登錄的相關方法。python提供了強大的url庫,想做到這個並不難。這里以登錄學校教務系統為例,做一個簡單的例子。

2、首先得明白cookie的作用,cookie是某些網站為了辨別用戶身份、進行session跟蹤而儲存在用戶本地終端上的數據。因此我們需要用Cookielib模塊來保持網站的cookie。

3、這個是要登陸的地址 http://202.115.80.153/ 和驗證碼地址 http://202.115.80.153/CheckCode.aspx

4、可以發現這個驗證碼是動態更新的每次打開都不一樣,一般這種驗證碼和cookie是同步的。其次想識別驗證碼肯定是吃力不討好的事,因此我們的思路是首先訪問驗證碼頁面,保存驗證碼、獲取cookie用於登錄,然后再直接向登錄地址post數據。

5、首先通過抓包工具或者火狐或者谷歌瀏覽器分析登錄頁面需要post的request和header信息。以谷歌瀏覽器為例。

 

 

從中可以看出需要post的url並不是訪問的頁面,而是http://202.115.80.153/default2.aspx

其中需要提交的表單數據中txtUserName和TextBox2分別用戶名和密碼。

現在直接到關鍵部分 上代碼!!

 1 import urllib2
 2 import cookielib
 3 import urllib
 4 import re
 5 import sys
 6 '''模擬登錄'''
 7 reload(sys)
 8 sys.setdefaultencoding("utf-8")
 9 # 防止中文報錯
10 CaptchaUrl = "http://202.115.80.153/CheckCode.aspx"
11 PostUrl = "http://202.115.80.153/default2.aspx"
12 # 驗證碼地址和post地址
13 cookie = cookielib.CookieJar()
14 handler = urllib2.HTTPCookieProcessor(cookie)
15 opener = urllib2.build_opener(handler)
16 # 將cookies綁定到一個opener cookie由cookielib自動管理
17 username = 'username'
18 password = 'password123'
19 # 用戶名和密碼
20 picture = opener.open(CaptchaUrl).read()
21 # 用openr訪問驗證碼地址,獲取cookie
22 local = open('e:/image.jpg', 'wb')
23 local.write(picture)
24 local.close()
25 # 保存驗證碼到本地
26 SecretCode = raw_input('輸入驗證碼: ')
27 # 打開保存的驗證碼圖片 輸入
28 postData = {
29 '__VIEWSTATE': 'dDwyODE2NTM0OTg7Oz6pH0TWZk5t0lupp/tlA1L+rmL83g==',
30 'txtUserName': username,
31 'TextBox2': password,
32 'txtSecretCode': SecretCode,
33 'RadioButtonList1': '學生',
34 'Button1': '',
35 'lbLanguage': '',
36 'hidPdrs': '',
37 'hidsc': '',
38 }
39 # 根據抓包信息 構造表單
40 headers = {
41 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
42 'Accept-Language': 'zh-CN,zh;q=0.8',
43 'Connection': 'keep-alive',
44 'Content-Type': 'application/x-www-form-urlencoded',
45 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36',
46 }
47 # 根據抓包信息 構造headers
48 data = urllib.urlencode(postData)
49 # 生成post數據 ?key1=value1&key2=value2的形式
50 request = urllib2.Request(PostUrl, data, headers)
51 # 構造request請求
52 try:
53 response = opener.open(request)
54 result = response.read().decode('gb2312')
55 # 由於該網頁是gb2312的編碼,所以需要解碼
56 print result
57 # 打印登錄后的頁面
58 except urllib2.HTTPError, e:
59 print e.code
60 # 利用之前存有cookie的opener登錄頁面

登錄成功后便可以利用該openr訪問其他需要登錄才能訪問的頁面。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM