原文:Scrapy錯誤-no active project Unknown command: crawl

在運行別人的scrapy項目時,使用命令行 scrapy crawl douban douban是該項目里爬蟲的名字,爛大街的小項目 抓取豆瓣電影 。 執行之后,出現報錯如下: 上網搜尋無果。 大多數是說路徑不對,需要進入到項目工程的路徑下,然而,我在項目的路徑里。 聽從建議使用了 scrapy 命令行之后發現,能使用的命令如下: 沒有crawl,很奇怪。反復查看后,發現了那句no active ...

2016-09-19 11:04 0 15256 推薦指數:

查看詳情

爬蟲問題之Unknown command: crawl

出現這個問題,很大原因是爬蟲沒有在項目文件夾里運行,因為scrapy 這個爬蟲框架封裝好的一些命令,必須在框架內環境支持下才能運行 另外在環境目錄下,還有很多命令,也必須在此路徑環境下才能執行 可以通過scrapy --help 查看 ...

Sat Sep 15 06:24:00 CST 2018 0 3535
Python3.7 Scrapy crawl 運行出錯解決方法

安裝的是Python3.7,裝上依賴包和scrapy后運行爬蟲命令出錯 解決方法: 將源碼manhole.py中的async參數更改為shark(注意更換全部) 可以直接點擊錯誤跳轉 也可以通過文件路徑查找 D:\Python37\Lib ...

Tue Aug 07 04:57:00 CST 2018 0 1608
使用scrapy crawl name啟動一個爬蟲時出現的問題

使用scrapy crawl name啟動一個爬蟲時出現的問題,我的項目名字叫做 “spider_city_58”,代碼如下: 來啟動一個爬蟲,卻出現了如下錯誤 ImportError: No module named win32api 一開始嘗試了網上其他的方法,就是去下載 ...

Mon Apr 23 01:39:00 CST 2018 0 1085
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM