巧破 Cloudflare 5秒盾
相信下面這個界面大家都不會陌生。
當我們第一次訪問使用 CloudFlare 加速的網站時,網站就會出現讓我們等待 5 秒種的提示,當我們需要的通過爬蟲爬取這類網站的時候,應該如何爬取呢?
分析請求
首先我們需要分析在這個等待的時間里瀏覽器做了哪些操作。
通過抓包,我們可以看到在等待的過程中,瀏覽器做了下面的三次請求【圖1-2】- 【圖1-4】:
【圖1-2】請求 1 寫入 cookie 字段 __cfduid
【圖1-3】請求 2 帶有疑似加密的請求參數請求並寫入 cookie 字段 cf_clearance
【圖1-4】請求 3 帶上前面寫入的cookie 請求網站首頁,返回首頁內容。
圖1-4
這整個過程需要的請求現在已經分析清楚了,接下來就是使用 Python 實現這個請求流程,不過是這樣的話就配不上這個標題了。
先說說這個按照正常流程是怎么實現抓取繞過的:
使用瀏覽器模擬技術請求目標網站,例如:Selenium、 PhantomJS等
破解請求 2 的加密參數使用請求庫模擬整個請求過程
這兩個方法當然是可以抓取的,但是都不符合標題的巧字。
接下來給大家介紹一個專門為了繞過這個 CloudFlare 開發的 Python 庫 cloudflare-scrape
用上它就可以無感爬取使用了 CloudFlare 的網站,使用這個庫非常簡單。
安裝
使用pip install cfscrape安裝cloudflare-scrape,同時確認本地是否安裝node.js開發環境,如果沒有,需要安裝配置nodejs開發環境。
使用實例
處理 get 請求的 CloudFlare
import cfscrape
# 實例化一個create_scraper對象
scraper = cfscrape.create_scraper()
# 請求報錯,可以加上時延
# scraper = cfscrape.create_scraper(delay = 10)
# 獲取網頁源代碼
web_data = scraper.get("https://wallhere.com/").content
print(web_data)
處理 post 請求的 CloudFlare
# import cfscrape
# 實例化一個create_scraper對象
scraper = cfscrape.create_scraper()
# 獲取真實網頁源代碼
web_data = scraper.post("http://example.com").content
print(web_data)
使用cloudflare-scrape后整個請求過程如絲般順滑。