原文:三十二 Python分布式爬虫打造搜索引擎Scrapy精讲—scrapy的暂停与重启

scrapy的每一个爬虫,暂停时可以记录暂停状态以及爬取了哪些url,重启时可以从暂停状态开始爬取过的URL不在爬取 实现暂停与重启记录状态 首先cd进入到scrapy项目里 在scrapy项目里创建保存记录信息的文件夹 执行命令: scrapy crawl 爬虫名称 s JOBDIR 保存记录信息的路径 如:scrapy crawl cnblogs s JOBDIR zant 执行命令会启动指定 ...

2018-01-03 11:07 0 1253 推荐指数:

查看详情

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM