使用scrapy crawl name启动一个爬虫时出现的问题


使用scrapy crawl name启动一个爬虫时出现的问题,我的项目名字叫做 “spider_city_58”,代码如下:

from scrapy import cmdline
cmdline.execute("scrapy crawl spider_city_58".split())

来启动一个爬虫,却出现了如下错误

ImportError: No module named win32api

一开始尝试了网上其他的方法,就是去下载”pywin32-220.win-amd64-py3.6.exe“,安装,发现根本无法安装,明明我的python版本也是64位的3.6,现在也不知道为啥!

于是卸载了python和其他所有的模块,但是依然报错,之后就尝试了以下的办法就解决了,汗~~

pip install pypiwin32

唉,这么简单却没有想到,郁闷~




					


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM