使用scrapy crawl name啟動一個爬蟲時出現的問題


使用scrapy crawl name啟動一個爬蟲時出現的問題,我的項目名字叫做 “spider_city_58”,代碼如下:

from scrapy import cmdline
cmdline.execute("scrapy crawl spider_city_58".split())

來啟動一個爬蟲,卻出現了如下錯誤

ImportError: No module named win32api

一開始嘗試了網上其他的方法,就是去下載”pywin32-220.win-amd64-py3.6.exe“,安裝,發現根本無法安裝,明明我的python版本也是64位的3.6,現在也不知道為啥!

於是卸載了python和其他所有的模塊,但是依然報錯,之后就嘗試了以下的辦法就解決了,汗~~

pip install pypiwin32

唉,這么簡單卻沒有想到,郁悶~

 
         
         
       


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM