爬蟲入門之反反爬蟲機制cookie UA與中間件(十三)


1. 通常防止爬蟲被反主要有以下幾個策略

(1)動態設置User-Agent(隨機切換User-Agent,模擬不同的瀏覽器)

方法1: 修改setting.py中的User-Agent

# Crawl responsibly by identifying yourself (and your website) on the user-agent
USER_AGENT = 'Hello World'  #User-Agent

方法2: 修改setting中的 DEFAULT_REQUEST_HEADERS

# Override the default request headers:
 DEFAULT_REQUEST_HEADERS = {
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
    'Accept-Language': 'en',
    'User-Agent':'Hello World'
 }

方法3 : 在代碼中修改

class HeadervalidationSpider(scrapy.Spider):
    name = 'headervalidation'
    allowed_domains = ['helloacm.com']
    
    def start_requests(self):
        header={'User-Agent':'Hello World'}
        yield scrapy.Request(url='http://helloacm.com/api/user-agent/',headers=header,callback=self.parse)

    def parse(self, response):
        print ('*'*20)
        print response.body
(2)禁用Cookies

就是不啟用cookies middleware,不向Server發送cookies,有些網站通過cookie的使用發現爬蟲行為

  1. 可以通過settings.py中的COOKIES_ENABLED , 控制 CookiesMiddleware 開啟或關閉

  2. 設置延遲下載(防止訪問過於頻繁,設置為 2秒 或更高)DOWNLOAD_DELAY

  3. Google Cache 和 Baidu Cache:如果可能的話,使用谷歌/百度等搜索引擎服務器頁面緩存獲取頁面數據。

  4. 使用IP地址池:VPN和代理IP,現在大部分網站都是根據IP來ban的

  5. 使用Crawlera(專用於爬蟲的代理組件),正確配置和設置下載中間件后,項目所有的request都是通過crawlera發出。在settings中打開下載中間件

    DOWNLOADER_MIDDLEWARES = {
          'scrapy_crawlera.CrawleraMiddleware': 600
    }
    CRAWLERA_ENABLED = True
    CRAWLERA_USER = '注冊/購買的UserKey'
    CRAWLERA_PASS = '注冊/購買的Password'
    

2.設置下載中間件(Downloader Middlewares)

下載中間件是處於引擎(crawler.engine)和下載器(crawler.engine.download())之間的一層組件,可以有多個下載中間件被加載運行。

  1. 當引擎傳遞請求給下載器過程中,下載中間件可以對請求進行處理 (增加http header信息 proxy信息等);
  2. 在下載器完成http請求,傳遞響應給引擎過程中,下載中間件可以對響應進行處理(例如進行gzip的解壓等)

要激活下載器中間件組件,將其加入到 DOWNLOADER_MIDDLEWARES 設置中。 該設置是一個字典(dict),鍵為中間件類的路徑,值為其中間件的順序(order)。

#開放下載中間件
DOWNLOADER_MIDDLEWARES = {
    'mySpider.middlewares.MyDownloaderMiddleware': 543,
}

一般下載中間件可以定義一下一個或多個方法:

process_request(self, request, spider)
  • 當每個request通過下載中間件時,該方法被調用。
  • process_request() 返回其中之一:None 、 Response 對象、 Request 對象或 raise IgnoreRequest:
    • 如果其返回 None ,Scrapy將繼續處理該request,執行其他的中間件的相應方法,直到合適的下載器處理函數(download handler)被調用, 該request被執行(其response被下載)。
    • 如果返回 Response 對象,Scrapy將不會調用 任何 其他的 process_request() 或 process_exception() 方法。 已安裝的中間件的 process_response() 方法則會在每個response返回時被調用。
    • 如果其返回 Request 對象,Scrapy則停止調用 process_request方法並重新調度返回的request。當新返回的request被執行后, 相應地中間件鏈將會根據下載的response被調用。
    • 如果其raise一個 IgnoreRequest 異常,則安裝的下載中間件的 process_exception() 方法會被調用。如果沒有任何一個方法處理該異常, 則request的errback(Request.errback)方法會被調用。如果沒有代碼處理拋出的異常, 則該異常被忽略且不記錄(不同於其他異常那樣)。
  • 參數:
    • request (Request 對象) – 處理的request
    • spider (Spider 對象) – 該request對應的spider

process_response(self, request, response, spider)

當下載器完成http請求,傳遞響應給引擎的時候調用

  • process_response() 必須返回以下其中之一: 返回一個 Response 對象、 返回一個 Request 對象或raise一個 IgnoreRequest 異常。
    • 如果其返回一個 Response (可以與傳入的response相同,也可以是全新的對象), 該response會被在鏈中的其他中間件的 process_response() 方法處理。
    • 如果其返回一個 Request 對象,則中間件鏈停止, 返回的request會被重新調度下載。處理類似於 process_request() 返回request所做的那樣。
    • 如果其拋出一個 IgnoreRequest 異常,則調用request的errback(Request.errback)。 如果沒有代碼處理拋出的異常,則該異常被忽略且不記錄(不同於其他異常那樣)。
  • 參數:
    • request (Request 對象) – response所對應的request
    • response (Response 對象) – 被處理的response
    • spider (Spider 對象) – response所對應的spider

3 案例

  1. 創建middlewares.py文件

    Scrapy代理IP、Uesr-Agent的切換都是通過DOWNLOADER_MIDDLEWARES進行控制,我們在settings.py同級目錄下創建middlewares.py文件,包裝所有請求。

# middlewares.py

import random
from settings import USER_AGENTS
from settings import PROXIES

# 隨機的User-Agent
class RandomUserAgent(object):
    def process_request(self, request, spider):
        useragent = random.choice(USER_AGENTS)
        request.headers.setdefault("User-Agent", useragent)

# 隨機代理IP
class RandomProxy(object):
    def process_request(self, request, spider):
        proxy = random.choice(PROXIES)
        request.meta['proxy'] = "http://" + proxy['ip_port']
  1. 修改settings.py配置USER_AGENTS和PROXIES

添加USER_AGENTS

USER_AGENTS = [
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)",
    "Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)"]

添加代理IP設置PROXIES:

PROXIES = [
    {'ip_port': '111.8.60.9:8123'},
    {'ip_port': '101.71.27.120:80'},
    {'ip_port': '122.96.59.104:80'},
    {'ip_port': '122.224.249.122:8088'},
]

除非特殊需要,禁用cookies,防止某些網站根據Cookie來封鎖爬蟲。

COOKIES_ENABLED = False

設置延遲

DOWNLOAD_DELAY = 3

最后設置setting.py里的DOWNLOADER_MIDDLEWARES,添加自己編寫的下載中間件類

DOWNLOADER_MIDDLEWARES = {
    #'mySpider.middlewares.MyCustomDownloaderMiddleware': 543,
    'mySpider.middlewares.RandomUserAgent': 81,
    'mySpider.middlewares.ProxyMiddleware': 100
}


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM