#啟用Redis調度存儲請求隊列
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
#確保所有的爬蟲通過Redis去重
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
#默認請求序列化使用的是pickle 但是我們可以更改為其他類似的。PS:這玩意兒2.X的可以用。3.X的不能用
#SCHEDULER_SERIALIZER = "scrapy_redis.picklecompat"
#不清除Redis隊列、這樣可以暫停/恢復 爬取
#SCHEDULER_PERSIST = True
#使用優先級調度請求隊列 (默認使用)
#SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.PriorityQueue'
#可選用的其它隊列
#SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.FifoQueue'
#SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.LifoQueue'
#最大空閑時間防止分布式爬蟲因為等待而關閉
#SCHEDULER_IDLE_BEFORE_CLOSE = 10
#將清除的項目在redis進行處理
ITEM_PIPELINES = {
'scrapy_redis.pipelines.RedisPipeline': 300
}
#序列化項目管道作為redis Key存儲
#REDIS_ITEMS_KEY = '%(spider)s:items'
#默認使用ScrapyJSONEncoder進行項目序列化
#You can use any importable path to a callable object.
#REDIS_ITEMS_SERIALIZER = 'json.dumps'
#指定連接到redis時使用的端口和地址(可選)
#REDIS_HOST = 'localhost'
#REDIS_PORT = 6379
#指定用於連接redis的URL(可選)
#如果設置此項,則此項優先級高於設置的REDIS_HOST 和 REDIS_PORT
REDIS_URL = 'redis://@localhost:6379'
#自定義的redis參數(連接超時之類的)
#REDIS_PARAMS = {}
#自定義redis客戶端類
#REDIS_PARAMS['redis_cls'] = 'myproject.RedisClient'
#如果為True,則使用redis的'spop'進行操作。
#如果需要避免起始網址列表出現重復,這個選項非常有用。開啟此選項urls必須通過sadd添加,否則會出現類型錯誤。
#REDIS_START_URLS_AS_SET = False
#RedisSpider和RedisCrawlSpider默認 start_usls 鍵
#REDIS_START_URLS_KEY = '%(name)s:start_urls'
#設置redis使用utf-8之外的編碼
#REDIS_ENCODING = 'latin1'