scrapy_redis配置文件


#啟用Redis調度存儲請求隊列
SCHEDULER = "scrapy_redis.scheduler.Scheduler"

#確保所有的爬蟲通過Redis去重
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

#默認請求序列化使用的是pickle 但是我們可以更改為其他類似的。PS:這玩意兒2.X的可以用。3.X的不能用
#SCHEDULER_SERIALIZER = "scrapy_redis.picklecompat"

#不清除Redis隊列、這樣可以暫停/恢復 爬取
#SCHEDULER_PERSIST = True

#使用優先級調度請求隊列 (默認使用)
#SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.PriorityQueue'
#可選用的其它隊列
#SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.FifoQueue'
#SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.LifoQueue'

#最大空閑時間防止分布式爬蟲因為等待而關閉
#SCHEDULER_IDLE_BEFORE_CLOSE = 10

#將清除的項目在redis進行處理
ITEM_PIPELINES = {
    'scrapy_redis.pipelines.RedisPipeline': 300
}

#序列化項目管道作為redis Key存儲
#REDIS_ITEMS_KEY = '%(spider)s:items'

#默認使用ScrapyJSONEncoder進行項目序列化
#You can use any importable path to a callable object.
#REDIS_ITEMS_SERIALIZER = 'json.dumps'

#指定連接到redis時使用的端口和地址(可選)
#REDIS_HOST = 'localhost'
#REDIS_PORT = 6379

#指定用於連接redis的URL(可選)
#如果設置此項,則此項優先級高於設置的REDIS_HOST 和 REDIS_PORT
REDIS_URL = 'redis://@localhost:6379'

#自定義的redis參數(連接超時之類的)
#REDIS_PARAMS  = {}

#自定義redis客戶端類
#REDIS_PARAMS['redis_cls'] = 'myproject.RedisClient'

#如果為True,則使用redis的'spop'進行操作。
#如果需要避免起始網址列表出現重復,這個選項非常有用。開啟此選項urls必須通過sadd添加,否則會出現類型錯誤。
#REDIS_START_URLS_AS_SET = False

#RedisSpider和RedisCrawlSpider默認 start_usls 鍵
#REDIS_START_URLS_KEY = '%(name)s:start_urls'

#設置redis使用utf-8之外的編碼
#REDIS_ENCODING = 'latin1'

  


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM