Python爬蟲 | re正則表達式解析html頁面


 

  • 正則表達式(Regular Expression)是一種文本模式,包括普通字符(例如,a 到 z 之間的字母)和特殊字符(稱為"元字符")。

  • 正則表達式通常被用來匹配檢索替換分割那些符合某個模式(規則)的文本。

 

一、常用正則表達式回顧

 單字符:
        . : 除換行以外所有字符
        [] :[aoe] [a-w] 匹配集合中任意一個字符
        \d :數字  [0-9]
        \D : 非數字
        \w :數字、字母、下划線、中文
        \W : 非\w
        \s :所有的空白字符包,括空格、制表符、換頁符等等。等價於 [ \f\n\r\t\v]。
        \S : 非空白

    數量修飾: * : 任意多次  >=0
        + : 至少1次   >=1
        ? : 可有可無  0次或者1次
        {m} :固定m次 hello{3,}
        {m,} :至少m次
        {m,n} :m-n次

   邊界:
        $ : 以某某結尾 
        ^ : 以某某開頭

    分組:
        (ab)  
貪婪模式: .
* 非貪婪(惰性)模式: .*? re.I : 忽略大小寫 re.M :多行匹配 re.S :單行匹配 re.sub(正則表達式, 替換內容, 字符串)

 

回顧練習:

import re

#提取出python
key="javapythonc++php"
re.findall('python',key)[0]            # 都有引號

#提取出hello world
key="<html><h1>hello world<h1></html>"
re.findall('<h1>(.*)<h1>',key)[0]

#提取170
string = '我喜歡身高為170的女孩'
re.findall('\d+',string)

#提取出http://和https://
key='http://www.baidu.com and https://boob.com'
re.findall('https?://',key)

#提取出hello
key='lalala<hTml>hello</HtMl>hahah' #輸出<hTml>hello</HtMl>
re.findall('<[Hh][Tt][mM][lL]>(.*)</[Hh][Tt][mM][lL]>',key)

#提取出hit. 
key='bobo@hit.edu.com'            #想要匹配到hit.
re.findall('h.*?\.',key)

#匹配sas和saas
key='saas and sas and saaas'
re.findall('sa{1,2}s',key)

#匹配出i開頭的行
string = '''fall in love with you
i love you very much
i love she
i love her'''

re.findall('^i.*',string,re.M)

#匹配全部行
string1 = """<div>靜夜思
窗前明月光
疑是地上霜
舉頭望明月
低頭思故鄉
</div>"""

re.findall('.*',string1,re.S)

注意:re.findall()通常匹配出來的是列表,所以要通過索引的方式將內容提取出來。

 

二、數據解析-正則表達式

1. 需求:爬取糗事百科中所有糗圖照片

import requests
import re
import os

#創建一個文件夾
if not os.path.exists('./qiutuLibs'):        # 注意里面要有引號
    os.mkdir('./qiutuLibs')
    
headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'
}

url = 'https://www.qiushibaike.com/pic/'
page_text = requests.get(url=url,headers=headers).text

#進行數據解析(圖片的地址)
ex = '<div class="thumb">.*?<img src="(.*?)" alt.*?</div>'        #不相關的可以用.*,非貪婪匹配

#re.S單行匹配
src_list = re.findall(ex,page_text,re.S)
print(src_list)

for src in src_list:
src = 'https:'+src                                #發現src屬性值不是一個完整的url,缺少了協議頭

    #對圖片的url單獨發起請求,獲取圖片數據.content返回的是二進制類型的響應數據
    img_data = requests.get(url=src,headers=headers).content
    img_name = src.split('/')[-1]                           # url 最后一個斜杠的就是圖片名
    img_path = './qiutuLibs/'+img_name
    with open(img_path,'wb') as fp:
        fp.write(img_data)
        print(img_name,'下載成功!')

 

 

 

2. 糗圖分頁爬取

import requests
import re
import os

# 創建一個文件夾
if not os.path.exists('./qiutuLibs'):
    os.mkdir('./qiutuLibs')

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'
}

#封裝一個通用的url模板
url = 'https://www.qiushibaike.com/pic/page/%d/?s=5185803'

for page in range(1,36):
    new_url = format(url%page)                            #不要忘了format,里面不加引號
    page_text = requests.get(url=new_url, headers=headers).text

    # 進行數據解析(圖片的地址)
    ex = '<div class="thumb">.*?<img src="(.*?)" alt.*?</div>'
    src_list = re.findall(ex, page_text, re.S)                        # re.S單行匹配,因為頁面源碼里面有 \n

    # 發現src屬性值不是一個完整的url,缺少了協議頭
    for src in src_list:
        src = 'https:' + src
        # 對圖片的url單獨發起請求,獲取圖片數據.content返回的是二進制類型的響應數據
        img_data = requests.get(url=src, headers=headers).content
        img_name = src.split('/')[-1]
        img_path = './qiutuLibs/' + img_name
        with open(img_path, 'wb') as fp:
            fp.write(img_data)
            print(img_name, '下載成功!')

 

觀察各個頁面之間的關聯

 

 

 

 

輸入1,結果自動跳轉到首頁

 

 注意:url使用format的編寫格式

#封裝一個通用的url模板
url = 'https://www.qiushibaike.com/pic/page/%d/?s=5185803'

for page in range(1,36):
    new_url = format(url%page)                            #不要忘了format,里面不加引號

 

3. 爬取糗事百科指定頁面的糗圖,並將其保存到指定文件夾中

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import requests
import re
import os

if __name__ == "__main__":
     url = 'https://www.qiushibaike.com/pic/%s/'
     headers={
         'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
     }

     #指定起始也結束頁碼
     page_start = int(input('enter start page:'))
     page_end = int(input('enter end page:'))

     #創建文件夾
     if not os.path.exists('images'):
         os.mkdir('images')

     #循環解析且下載指定頁碼中的圖片數據
     for page in range(page_start,page_end+1): print('正在下載第%d頁圖片'%page)
         new_url = format(url % page)
         response = requests.get(url=new_url,headers=headers)

         #解析response中的圖片鏈接
         e = '<div class="thumb">.*?<img src="(.*?)".*?>.*?</div>'
         pa = re.compile(e,re.S)
         image_urls = pa.findall(response.text)

          #循環下載該頁碼下所有的圖片數據
         for image_url in image_urls:
             image_url = 'https:' + image_url
             image_name = image_url.split('/')[-1]
             image_path = 'images/'+image_name 
             image_data = requests.get(url=image_url,headers=headers).content
             with open(image_path,'wb') as fp:
                 fp.write(image_data)

 

 

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM