一:下载文件的 Files Pipeline
使用Files Pipeline下载文件,按照以下步骤完成:
- 定义好一个Item,然后在这个item中定义两个属性,分别为file_urls以及files。files_urls是用来存储需要下载的文件的url链接,需要给一个列表
- 当文件下载完成后,会把文件下载的相关信息存储到item的files属性中。如下载路径、下载的url和文件校验码等
- 在配置文件settings.py中配置FILES_STORE,这个配置用来设置文件下载路径
- 启动pipeline:在ITEM_PIPELINES中设置scrapy.piplines.files.FilesPipeline:1
二:下载图片的 Images Pipeline
使用images pipeline下载文件步骤:
- 定义好一个Item,然后在这个item中定义两个属性,分别为image_urls以及images。image_urls是用来存储需要下载的文件的url链接,需要给一个列表
- 当文件下载完成后,会把文件下载的相关信息存储到item的images属性中。如下载路径、下载的url和图片校验码等
- 在配置文件settings.py中配置IMAGES_STORE,这个配置用来设置文件下载路径
- 启动pipeline:在ITEM_PIPELINES中设置scrapy.pipelines.images.ImagesPipeline:1
2.1 配置文件修改

import os ITEM_PIPELINES = { # 'bmw.pipelines.BmwPipeline': 300, 'scrapy.pipelines.images.ImagesPipeline': 1 # 使用scrapy内置的ImagesPipeline } # 配置文件的下载路径 IMAGES_STORE = os.path.join(os.path.dirname(os.path.dirname(__file__)), 'images')
2.2 修改items字段

import scrapy class BmwItem(scrapy.Item): category = scrapy.Field() image_urls = scrapy.Field() images = scrapy.Field()
2.3 修改爬取数据文件
由于字段修改了,在爬取数据文件中,只需要修改下字段名即可

class BmwSpider(scrapy.Spider): name = 'bmw' allowed_domains = ['car.autohome.com.cn'] start_urls = ['https://car.autohome.com.cn/pic/series/4472.html'] def parse(self, response): uiboxs = response.xpath('//div[@class="uibox"]')[1:] for uibox in uiboxs: category = uibox.xpath('.//div[@class="uibox-title"]/a/text()').get() url_list = uibox.xpath('.//ul/li/a/img/@src').getall() # urls = ['https:' + url for url in url_list] urls = list(map(lambda url: response.urljoin(url), url_list)) item = AutohomeItem(category = category, image_urls = urls) # 修改这里的urls为image_urls yield item
修改完后即可运行程序,下载图片(异步下载)。
下载的图片都保存在images/full/目录下,为什么了多了full这个目录,查看下源码:
由于scrapy默认的Images Pipeline目录结构不是我们想要的,我们希望图片按照目标站的分类进行创建目录结构,所以得重写保存路径的代码
2.4 自定义 images pipeline
首先修改下settings配置文件:

ITEM_PIPELINES = { # 'bmw.pipelines.BmwPipeline': 300, # 'scrapy.pipelines.images.ImagesPipeline': 1 'bmw.pipelines.BmwImagesPipeline': 1 # 自定义的BmwImagesPipeline类 }
在pipelines.py文件实现自定义的BmwImagesPipeline类:

import os from urllib import request from scrapy.pipelines.images import ImagesPipeline from bmw import settings class BmwImagesPipeline(ImagesPipeline): # 必须继承ImagesPipeline # 重写父类的下面两个方法 def get_media_requests(self, item, info): # 该方法在发送下载请求前调用,其实这个方法本身就是去发送下载请求的 # 因为file_path中并没有item对象,所以使用该方法将item动态绑定到request对象上 request_objs = super(BmwImagesPipeline, self).get_media_requests(item, info) for request_obj in request_objs: request_obj.item = item return request_objs def file_path(self, request, response = None, info = None): # 该方法是在图片将要被存储的时候调用,来获取这个图片存储路径 path = super(BmwImagesPipeline, self).file_path(request, response, info) category = request.item.get('category') images_store = settings.IMAGES_STORE category_path = os.path.join(images_store, category) if not os.path.exists(category_path): os.mkdir(category_path) image_name = path.replace('full/', '') image_path = os.path.join(category_path, image_name) return image_path
三:Images Pipeline的简单案例
1:spider文件内容如下

import scrapy from ImgsPro.items import ImgsproItem class ChinazSpider(scrapy.Spider): name = 'chinaz' # allowed_domains = ['www.xxx.com'] start_urls = ['http://sc.chinaz.com/tupian/'] def parse(self, response): div_list = response.xpath('//div[@id="container"]/div') for div in div_list: # 这里涉及到了图片的懒加载,所以这里的xpath规则使用了src2的这个伪属性 src = div.xpath('./div/a/img/@src2').extract_first() item = ImgsproItem(src = src) yield item
2:items.py文件内容

import scrapy class ImgsproItem(scrapy.Item): src = scrapy.Field()
3:pipeline文件内容

from scrapy.pipelines.images import ImagesPipeline import scrapy class ImgsPipeline(ImagesPipeline): # 主要重写下面三个父类方法 def get_media_requests(self, item, info): yield scrapy.Request(item['src']) def file_path(self, request, response=None, info=None): img_name = request.url.split('/')[-1] return img_name # 返回文件名 def item_completed(self, results, item, info): return item # 返回给下一个即将被执行的管道类
4:settings配置文件

ITEM_PIPELINES = { # 'ImgsPro.pipelines.ImgsproPipeline': 300, 'ImgsPro.pipelines.ImgsPipeline': 300, } IMAGES_STORE = './images'