對於 BOSS 直聘這種網站,當程序請求網頁后,服務器響應內容包含了整個頁面的 HTML 源代碼,這樣就可以使用爬蟲來爬取數據。但有些網站做了一些“反爬蟲”處理,其網頁內容不是靜態的,而是使用 JavaScript 動態加載的,此時的爬蟲程序也需要做相應的改進。
使用 shell 調試工具分析目標站點
本項目爬取的目標站點是 https://unsplash.com/,該網站包含了大量高清、優美的圖片。本項目的目標是爬蟲程序能自動識別並下載該網站上的所有圖片。
在開發該項目之前,依然先使用 Firefox 瀏覽該網站,然后查看該網站的源代碼,將會看到頁面的 <body.../> 元素幾乎是空的,並沒有包含任何圖片。
現在使用 Scrapy 的 shell 調試工具來看看該頁面的內容。在控制台輸入如下命令,啟動 shell 調試:
scrapy shell https://unsplash.com/
執行上面命令,可以看到 Scrapy 成功下載了服務器響應數據。接下來,通過如下命令來嘗試獲取所有圖片的 src 屬性(圖片都是 img 元素,src 屬性指定了圖片的 URL):
response.xpath('//img/@src').extract()
執行上面命令,將會看到返回一系列圖片的URL,但它們都不是高清圖片的 URL。
還是通過"Ctrl+Shift+I"快捷鍵打開 Firefox 的調試控制台,再次向 https://unsplash.com/ 網站發送請求,接下來可以在 Firefox 的調試控制台中看到如圖 1 所示的請求。

圖 1 動態獲取圖片的請求
可見,該網頁動態請求圖片的 URL 如下:
https://unsplash.com/napi/photos?page=4&per_page=12
上面 URL 中的 page 代表第幾頁,per_page 代表每頁加載的圖片數。使用 Scrapy 的 shell 調試工具來調試該網址,輸入如下命令:
scrapy shell https://unsplash.com/napi/photos?page=1&per_page=10
上面命令代表請求第 1 頁,每頁顯示 10 張圖片的響應數據。執行上面命令,服務器響應內容是一段 JSON 數據,接下來在 shell 調試工具中輸入如下命令:
>>> import json >>> len(json.loads(response.text)) 10
從上面的調試結果可以看到,服務器響應內容是一個 JSON 數組(轉換之后對應於 Python 的 list 列表),且該數組中包含 10 個元素。
使用 Firefox 直接請求 https://unsplash.com/napi/photos?page=1&per_page=12 地址(如果希望使用更專業的工具,則可選擇 Postman),可以看到服務器響應內容如圖 2 所示。

圖 2 服務器響應的JSON 數據
在圖 2 所示為所有圖片的 JSON 數據,每張圖片數據都包含 id、created_at(創建時間)、updated_at(更新時間)、width(圖片寬度)、height(圖片高度)等基本信息和一個 links 屬性,該屬性值是一個對象(轉換之后對應於 Python 的 dict),它包含了 self、html、download、download_location 屬性,其中 self 代表瀏覽網頁時的圖片的 URL;而 download 才是要下載的高清圖片的 URL。
網絡爬蟲畢竟是針對別人的網站“爬取” 數據的,而目標網站的結構隨時可能發生改變,讀者應該學習這種分析方法,而不是“生搬硬套”照抄本節的分析結果。
嘗試在 shell 調試工具中查看第一張圖片的下載 URL,應該在 shell 調試工具中輸入如下命令:
>>> json.loads(response.text)[0]['links']['download'] 'https://unsplash.com/photos/-RMY4j97SsM/download'
與圖 2 中 JSON 數據對比不難看出,shell 調試工具輸出的第一張圖片的下載 URL 與圖 2 所顯示的第一張圖片的下載 URL 完全相同。
由此得到一個結論,該網頁加載時會自動向 https://unsplash.com/napi/photos?age=N&per_page=N 發送請求,然后根據服務器響應的 JSON 數據來動態加載圖片。
由於該網頁是“瀑布流”設計(所謂“瀑布流”設計,就是網頁沒有傳統的分頁按鈕,而是讓用戶通過滾動條來實現分頁,當用戶向下拖動滾動條時,程序會動態載入新的分頁),
當我們在 Firefox 中拖動滾動條時,可以在 Firefox 的調試控制台中看到再次向 https://unsplash.com/napi/photos?page=N&per_page=N 發送了請求,
只是 page 參數發生了改變。可見,為了不斷地加載新的圖片,程序只要不斷地向該 URL 發送請求,並改變 page 參數即可。
經過以上分析,下面我們開始正式使用 Scrapy 來實現爬取高清圖片。
使用Scrapy 爬取高清圖片
按照慣例,使用如下命令來創建一個 Scrapy 項目:
scrapy startproject UnsplashimageSpider
然后在命令行窗口中進入 UnsplashlmageSpider 所在的目錄下(不要進入 UnsplashImageSpider\UnsplashImageSpider目錄下),執行如下命令來生成 Spider 類:
scrapy genspider unsplash_image 'unsplash.com
上面兩個命令執行完成之后,一個簡單的 Scrapy 項目就創建好了。
接下來需要修改 UnsplashImageSpider\items.py、UnsplashImageSpider\pipelines.py、UnsplashImageSpider\spiders\unsplash_image.py、UnsplashImageSpider\settings.py 文件,將它們全部改為使用 UTF-8 字符集來保存。
現在按照如下步驟來開發該爬蟲項目:
- 定義 Item 類。由於本項目的目標是爬取高清圖片,因此其所使用的 Item 類比較簡單,只要保存圖片 id 和圖片下載地址即可。
下面是該項目的 Item 類的代碼:import scrapy class ImageItem(scrapy.Item): # 保存圖片id image_id = scrapy.Field() # 保存圖片下載地址 download = scrapy.Field()
- 開發 Spider。開發 Spider 就是指定 Scrapy 發送請求的 URL,並實現 parse(self, response) 方法來解析服務器響應數據。
下面是該項目的 Spider 程序:import scrapy, json from UnsplashImageSpider.items import ImageItem class UnsplashImageSpider(scrapy.Spider): # 定義Spider的名稱 name = 'unsplash_image' allowed_domains = ['unsplash.com'] # 定義起始頁面 start_urls = ['https://unsplash.com/napi/photos?page=1&per_page=12'] def __init__ (self): self.page_index = 1 def parse(self, response): # 解析服務器響應的JSON字符串 photo_list = json.loads(response.text) # ① # 遍歷每張圖片 for photo in photo_list: item = ImageItem() item['image_id'] = photo['id'] item['download'] = photo['links']['download'] yield item self.page_index += 1 # 獲取下一頁的鏈接 next_link = 'https://unsplash.com/napi/photos?page='\ + str(self.page_index) + '&per_page=12' # 繼續獲取下一頁的圖片 yield scrapy.Request(next_link, callback=self.parse)
在獲取 JSON 響應數據之后,程序同樣將 JSON 數據封裝成 Item 對象后返回給 Scrapy 引擎。
Spider 到底應該使用 XPath 或 CSS 選擇器來提取響應數據,還是使用 JSON,完全取決於目標網站的響應內容,怎么方便怎么來!總之,提取到數據之后,將數據封裝成 Item 對象后返回給 Scrapy 引擎就對了。
上面程序中倒數第 2 行代碼定義了加載下一頁數據的 URL,接下來使用 scrapy.Request 向該 URL 發送請求,並指定使用 self.parse 方法來處理服務器響應內容,這樣程序就可以不斷地請求下一頁的圖片數據。 - 開發 Pipeline。Pipeline 負責保存 Spider 返回的 Item 對象(封裝了爬取到的數據)。本項目爬取的目標是圖片,因此程序得到圖片的 URL 之后,既可將這些 URL 地址導入專門的下載工具中批量下載,也可在 Python 程序中直接下載。
本項目的 Pipeline 將使用 urllib.request 包直接下載。下面是該項目的 Pipeline 程序:
from urllib.request import * class UnsplashimagespiderPipeline(object): def process_item(self, item, spider): # 每個item代表一個要下載的圖片 print('----------' + item['image_id']) real_url = item['download'] + "?force=true" try: pass # 打開URL對應的資源 with urlopen(real_url) as result: # 讀取圖片數據 data = result.read() # 打開圖片文件 with open("images/" + item['image_id'] + '.jpg', 'wb+') as f: # 寫入讀取的數據 f.write(data) except: print('下載圖片出現錯誤' % item['image_id'])
程序中第 11 行代碼使用 urlopen() 函數獲取目標 URL 的數據,接下來即可讀取圖片數據,並將圖片數據寫入下載的目標文件中。
經過上面 3 步,基於 Scrapy 開發的高清圖片爬取程序基本完成。接下來依然需要對 settings.py 文件進行修改,即增加一些自定義請求頭(用於模擬瀏覽器),設置啟用指定的 Pipeline。下面是本項目修改后的 settings.py 文件:
BOT_NAME = 'UnsplashImageSpider' SPIDER_MODULES = ['UnsplashImageSpider.spiders'] NEWSPIDER_MODULE = 'UnsplashImageSpider.spiders' ROBOTSTXT_OBEY = True # 配置默認的請求頭 DEFAULT_REQUEST_HEADERS = { "User-Agent" : "Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0", 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8' } # 配置使用Pipeline ITEM_PIPELINES = { 'UnsplashImageSpider.pipelines.UnsplashimagespiderPipeline': 300, }
至此,這個可以爬取高清圖片的爬蟲項目開發完成,讀者可以在 UnsplashlmageSpider 目錄下執行如下命令來啟動爬蟲。
scrapy crawl unsplash_image #或者 scrapy runspider unsplash_image
區別:
命令 |
說明 | 是否需要項目 | 示例 |
runspider | 未創建項目的情況下,運行一個編寫在Python文件中的spider | no | $ scrapy runspider myspider.py |
crawl | 使用spider進行爬取 | yes | $ scrapy crawl myspider |
運行該爬蟲程序之后,可以看到在項目的 images 目錄下不斷地增加新的高清圖片(對圖片的爬取速度在很大程度上取決於網絡下載速度),這些高清圖片正是 https://unsplash.com 網站中所展示的圖片。