Python Scrapy突破反爬蟲機制(項目實踐)


對於 BOSS 直聘這種網站,當程序請求網頁后,服務器響應內容包含了整個頁面的 HTML 源代碼,這樣就可以使用爬蟲來爬取數據。但有些網站做了一些“反爬蟲”處理,其網頁內容不是靜態的,而是使用 JavaScript 動態加載的,此時的爬蟲程序也需要做相應的改進。

使用 shell 調試工具分析目標站點

本項目爬取的目標站點是 https://unsplash.com/,該網站包含了大量高清、優美的圖片。本項目的目標是爬蟲程序能自動識別並下載該網站上的所有圖片。

在開發該項目之前,依然先使用 Firefox 瀏覽該網站,然后查看該網站的源代碼,將會看到頁面的 <body.../> 元素幾乎是空的,並沒有包含任何圖片。

現在使用 Scrapy 的 shell 調試工具來看看該頁面的內容。在控制台輸入如下命令,啟動 shell 調試:

scrapy shell https://unsplash.com/

  

執行上面命令,可以看到 Scrapy 成功下載了服務器響應數據。接下來,通過如下命令來嘗試獲取所有圖片的 src 屬性(圖片都是 img 元素,src 屬性指定了圖片的 URL):

response.xpath('//img/@src').extract()

執行上面命令,將會看到返回一系列圖片的URL,但它們都不是高清圖片的 URL。

還是通過"Ctrl+Shift+I"快捷鍵打開 Firefox 的調試控制台,再次向 https://unsplash.com/ 網站發送請求,接下來可以在 Firefox 的調試控制台中看到如圖 1 所示的請求。



圖 1 動態獲取圖片的請求


可見,該網頁動態請求圖片的 URL 如下:

https://unsplash.com/napi/photos?page=4&per_page=12

上面 URL 中的 page 代表第幾頁,per_page 代表每頁加載的圖片數。使用 Scrapy 的 shell 調試工具來調試該網址,輸入如下命令:

scrapy shell https://unsplash.com/napi/photos?page=1&per_page=10

  

上面命令代表請求第 1 頁,每頁顯示 10 張圖片的響應數據。執行上面命令,服務器響應內容是一段 JSON 數據,接下來在 shell 調試工具中輸入如下命令:

>>> import json
>>> len(json.loads(response.text))
10

  

從上面的調試結果可以看到,服務器響應內容是一個 JSON 數組(轉換之后對應於 Python 的 list 列表),且該數組中包含 10 個元素。

使用 Firefox 直接請求 https://unsplash.com/napi/photos?page=1&per_page=12 地址(如果希望使用更專業的工具,則可選擇 Postman),可以看到服務器響應內容如圖 2 所示。



圖 2 服務器響應的JSON 數據


在圖 2 所示為所有圖片的 JSON 數據,每張圖片數據都包含 id、created_at(創建時間)、updated_at(更新時間)、width(圖片寬度)、height(圖片高度)等基本信息和一個 links 屬性,該屬性值是一個對象(轉換之后對應於 Python 的 dict),它包含了 self、html、download、download_location 屬性,其中 self 代表瀏覽網頁時的圖片的 URL;而 download 才是要下載的高清圖片的 URL。

網絡爬蟲畢竟是針對別人的網站“爬取” 數據的,而目標網站的結構隨時可能發生改變,讀者應該學習這種分析方法,而不是“生搬硬套”照抄本節的分析結果。

嘗試在 shell 調試工具中查看第一張圖片的下載 URL,應該在 shell 調試工具中輸入如下命令:

>>> json.loads(response.text)[0]['links']['download']
'https://unsplash.com/photos/-RMY4j97SsM/download'

  

與圖 2 中 JSON 數據對比不難看出,shell 調試工具輸出的第一張圖片的下載 URL 與圖 2 所顯示的第一張圖片的下載 URL 完全相同。

由此得到一個結論,該網頁加載時會自動向 https://unsplash.com/napi/photos?age=N&per_page=N 發送請求,然后根據服務器響應的 JSON 數據來動態加載圖片。

由於該網頁是“瀑布流”設計(所謂“瀑布流”設計,就是網頁沒有傳統的分頁按鈕,而是讓用戶通過滾動條來實現分頁,當用戶向下拖動滾動條時,程序會動態載入新的分頁),
當我們在 Firefox 中拖動滾動條時,可以在 Firefox 的調試控制台中看到再次向 https://unsplash.com/napi/photos?page=N&per_page=N 發送了請求,
只是 page 參數發生了改變。可見,為了不斷地加載新的圖片,程序只要不斷地向該 URL 發送請求,並改變 page 參數即可。

 

經過以上分析,下面我們開始正式使用 Scrapy 來實現爬取高清圖片。

使用Scrapy 爬取高清圖片

按照慣例,使用如下命令來創建一個 Scrapy 項目:

scrapy startproject UnsplashimageSpider

 

然后在命令行窗口中進入 UnsplashlmageSpider 所在的目錄下(不要進入 UnsplashImageSpider\UnsplashImageSpider目錄下),執行如下命令來生成 Spider 類:

scrapy genspider unsplash_image 'unsplash.com

  

上面兩個命令執行完成之后,一個簡單的 Scrapy 項目就創建好了。

接下來需要修改 UnsplashImageSpider\items.py、UnsplashImageSpider\pipelines.py、UnsplashImageSpider\spiders\unsplash_image.py、UnsplashImageSpider\settings.py 文件,將它們全部改為使用 UTF-8 字符集來保存。

現在按照如下步驟來開發該爬蟲項目:

  1. 定義 Item 類。由於本項目的目標是爬取高清圖片,因此其所使用的 Item 類比較簡單,只要保存圖片 id 和圖片下載地址即可。

    下面是該項目的 Item 類的代碼:
    import scrapy
    class ImageItem(scrapy.Item):
    # 保存圖片id
    image_id = scrapy.Field()
    # 保存圖片下載地址
    download = scrapy.Field()
    

      

    上面程序為 Item 類定義了兩個變量,分別用於保存圖片 id 和圖片下載地址。
  2. 開發 Spider。開發 Spider 就是指定 Scrapy 發送請求的 URL,並實現 parse(self, response) 方法來解析服務器響應數據。

    下面是該項目的 Spider 程序:
    import scrapy, json
    from UnsplashImageSpider.items import ImageItem
    class UnsplashImageSpider(scrapy.Spider):
    # 定義Spider的名稱
    name = 'unsplash_image'
    allowed_domains = ['unsplash.com']
    # 定義起始頁面
    start_urls = ['https://unsplash.com/napi/photos?page=1&per_page=12']
    def __init__ (self):
    self.page_index = 1
    def parse(self, response):
    # 解析服務器響應的JSON字符串
    photo_list = json.loads(response.text) # ①
    # 遍歷每張圖片
    for photo in photo_list:
    item = ImageItem()
    item['image_id'] = photo['id']
    item['download'] = photo['links']['download']
    yield item
    self.page_index += 1
    # 獲取下一頁的鏈接
    next_link = 'https://unsplash.com/napi/photos?page='\
    + str(self.page_index) + '&per_page=12'
    # 繼續獲取下一頁的圖片
    yield scrapy.Request(next_link, callback=self.parse)
    

      

    上面程序中第 9 行代碼指定的 URL 是本項目爬取的第一個頁面,由於該頁面的響應是一個 JSON 數據,因此程序無須使用 XPath 或 CSS 選擇器來“提取”數據,而是直接使用 json 模塊的 loads() 函數來加載該響應數據即可。

    在獲取 JSON 響應數據之后,程序同樣將 JSON 數據封裝成 Item 對象后返回給 Scrapy 引擎。

    Spider 到底應該使用 XPath 或 CSS 選擇器來提取響應數據,還是使用 JSON,完全取決於目標網站的響應內容,怎么方便怎么來!總之,提取到數據之后,將數據封裝成 Item 對象后返回給 Scrapy 引擎就對了。

    上面程序中倒數第 2 行代碼定義了加載下一頁數據的 URL,接下來使用 scrapy.Request 向該 URL 發送請求,並指定使用 self.parse 方法來處理服務器響應內容,這樣程序就可以不斷地請求下一頁的圖片數據。
  3. 開發 Pipeline。Pipeline 負責保存 Spider 返回的 Item 對象(封裝了爬取到的數據)。本項目爬取的目標是圖片,因此程序得到圖片的 URL 之后,既可將這些 URL 地址導入專門的下載工具中批量下載,也可在 Python 程序中直接下載。

    本項目的 Pipeline 將使用 urllib.request 包直接下載。下面是該項目的 Pipeline 程序:
    from urllib.request import *
    class UnsplashimagespiderPipeline(object):
    def process_item(self, item, spider):
    # 每個item代表一個要下載的圖片
    print('----------' + item['image_id'])
    real_url = item['download'] + "?force=true"
    try:
    pass
    # 打開URL對應的資源
    with urlopen(real_url) as result:
    # 讀取圖片數據
    data = result.read()
    # 打開圖片文件
    with open("images/" + item['image_id'] + '.jpg', 'wb+') as f:
    # 寫入讀取的數據
    f.write(data)
    except:
    print('下載圖片出現錯誤' % item['image_id'])
    

      

    上面程序中第 7 行代碼用於拼接下載圖片的完整地址。可能有讀者會問,為何要在圖片下載地址的后面追加“?force=true”?這並不是本項目所能決定的,讀者可以把鼠標指針移動到 https://unsplash.com 網站中各圖片右下角的下載按鈕上,即可看到各圖片的下載地址都會在 download 后追加“?force=true”,此處只是模擬這種行為而已。

    程序中第 11 行代碼使用 urlopen() 函數獲取目標 URL 的數據,接下來即可讀取圖片數據,並將圖片數據寫入下載的目標文件中。
     

經過上面 3 步,基於 Scrapy 開發的高清圖片爬取程序基本完成。接下來依然需要對 settings.py 文件進行修改,即增加一些自定義請求頭(用於模擬瀏覽器),設置啟用指定的 Pipeline。下面是本項目修改后的 settings.py 文件:

BOT_NAME = 'UnsplashImageSpider'
SPIDER_MODULES = ['UnsplashImageSpider.spiders']
NEWSPIDER_MODULE = 'UnsplashImageSpider.spiders'
ROBOTSTXT_OBEY = True
# 配置默認的請求頭
DEFAULT_REQUEST_HEADERS = {
"User-Agent" : "Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0",
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8'
}
# 配置使用Pipeline
ITEM_PIPELINES = {
'UnsplashImageSpider.pipelines.UnsplashimagespiderPipeline': 300,
}

  

至此,這個可以爬取高清圖片的爬蟲項目開發完成,讀者可以在 UnsplashlmageSpider 目錄下執行如下命令來啟動爬蟲。

scrapy crawl unsplash_image
#或者
scrapy runspider unsplash_image

 區別:

 

 

命令   

 

說明 是否需要項目 示例
runspider  未創建項目的情況下,運行一個編寫在Python文件中的spider  no  $ scrapy runspider myspider.py
crawl  使用spider進行爬取  yes $ scrapy crawl myspider

 

 

運行該爬蟲程序之后,可以看到在項目的 images 目錄下不斷地增加新的高清圖片(對圖片的爬取速度在很大程度上取決於網絡下載速度),這些高清圖片正是 https://unsplash.com 網站中所展示的圖片。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM