python爬蟲——數據爬取和具體解析


關於正則表達式的更多用法,可參考鏈接https://blog.csdn.net/weixin_40040404/article/details/81027081

 

一、正則表達式:

1.常用正則匹配:

URL:^https?://[a-zA-Z0-9\.\?=&]*$ (re.S模式,匹配 https://www.baidu.com 類似URL )
常用Email地址:[0-9a-zA-Z_-]+@[0-9a-zA-Z_-]+\.[0-9a-zA-Z_-]+ 或者 [\w-]+@[\w-]+\.[\w-]+
中文字符匹配:[\u4e00-\u9fa5]+ 或者 [^\x00-\xff]+
QQ號:[1-9][0-9]{4,} ({4,}表示[0-9]的數字個數不低於4個)
ID:^[1-9]\d{5}(18|19|([23]\d))\d{2}((0[1-9])|(10|11|12))(([0-2][1-9])|10|20|30|31)\d{3}[0-9Xx]$

2.特殊組合:

([\s\S]*?) == ([.\n]*?) == re.findall(‘.*?‘, re.S)

萬能正則表達式 (加‘?’表示懶惰模式,盡可能最小長度匹配; 不加‘?’表示貪婪模式,盡可能最大長度匹配)
\s\S : 空白字符+非空白字符,即表示所有字符 all, == ’ .\n ‘(.表示除換行符之外的任意字符,\n表示換行符)
re.S: 即DOTAALL 點匹配任意模式,改變.的行為,可以匹配換行符

二、例子

獲取博客園的其中一篇文章的內容,保存至文檔中。(具體解析在代碼注釋中可見)

1.源代碼

 1 import requests
 2 import re
 3 import json
 4 
 5 def request_blog(url):
 6     # 異常處理代碼塊
 7     try:
 8         #同步請求
 9         response = requests.get(url)
10         if response.status_code == 200:
11             return response.text
12     except requests.RequestException:
13          return None
14 
15 def parse_result(html):
16    # re正則表達式,re.compile是對匹配符的封裝,直接用re.match(匹配符,要匹配的原文本)可以達到相同的效果, 
17    # 當然,這里沒有用re.match來執行匹配,而是用了re.findall,這是因為后者可以適用於多行文本的匹配。
18    # 另外,re.compile后面的第2個參數,re.S是用來應對換行的,.匹配的單個字符不包括\n和\r,當遇到換行時,我們需要用到re.S
19 
20    # 獲取網頁中的<p>標簽中的內容,遇到換行符時,自動跳出循環
21    # 格式:標簽加.*?,.*?表示取標簽中的所有數據
22     pattern = re.compile('<p>.*?</p>',re.S)
23     items = re.findall(pattern, html)
24     return items
25 
26 def write_item_to_file(item):
27     print('寫入數據:' + str(item))
28     # 保存的文件名blog.txt,寫入文件的格式a追加,寫入文件的中文格式化UTF-8
29     with open('blog.txt', 'a', encoding='UTF-8') as f:
30         # 遇到換行符時,自動換行
31         f.write(json.dumps(item, ensure_ascii=False) + '\n')
32 
33 def main(page):
34     # 網址
35     url = 'https://www.cnblogs.com/chenting123456789/p/11840740.html' + str(page)
36     # 調用獲取網頁數據的函數
37     html = request_blog(url)
38     # 調用解析已獲取的網頁數據的函數
39     items = parse_result(html)
40     # 循環寫入文件
41     for item in items:
42         write_item_to_file(item)
43 
44 if __name__ == "__main__":
45     for i in range(1,5):
46         main(i)

2.運行結果

 

 3.原文文章截圖

 

 4.寫入文件內容

 

三、小結

強化爬蟲爬取網頁信息的技術,以及解析數據時的邏輯順序。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM