原文:三十二 Python分布式爬蟲打造搜索引擎Scrapy精講—scrapy的暫停與重啟

scrapy的每一個爬蟲,暫停時可以記錄暫停狀態以及爬取了哪些url,重啟時可以從暫停狀態開始爬取過的URL不在爬取 實現暫停與重啟記錄狀態 首先cd進入到scrapy項目里 在scrapy項目里創建保存記錄信息的文件夾 執行命令: scrapy crawl 爬蟲名稱 s JOBDIR 保存記錄信息的路徑 如:scrapy crawl cnblogs s JOBDIR zant 執行命令會啟動指定 ...

2018-01-03 11:07 0 1253 推薦指數:

查看詳情

 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM