原文:Scrapy错误-no active project Unknown command: crawl

在运行别人的scrapy项目时,使用命令行 scrapy crawl douban douban是该项目里爬虫的名字,烂大街的小项目 抓取豆瓣电影 。 执行之后,出现报错如下: 上网搜寻无果。 大多数是说路径不对,需要进入到项目工程的路径下,然而,我在项目的路径里。 听从建议使用了 scrapy 命令行之后发现,能使用的命令如下: 没有crawl,很奇怪。反复查看后,发现了那句no active ...

2016-09-19 11:04 0 15256 推荐指数:

查看详情

爬虫问题之Unknown command: crawl

出现这个问题,很大原因是爬虫没有在项目文件夹里运行,因为scrapy 这个爬虫框架封装好的一些命令,必须在框架内环境支持下才能运行 另外在环境目录下,还有很多命令,也必须在此路径环境下才能执行 可以通过scrapy --help 查看 ...

Sat Sep 15 06:24:00 CST 2018 0 3535
Python3.7 Scrapy crawl 运行出错解决方法

安装的是Python3.7,装上依赖包和scrapy后运行爬虫命令出错 解决方法: 将源码manhole.py中的async参数更改为shark(注意更换全部) 可以直接点击错误跳转 也可以通过文件路径查找 D:\Python37\Lib ...

Tue Aug 07 04:57:00 CST 2018 0 1608
使用scrapy crawl name启动一个爬虫时出现的问题

使用scrapy crawl name启动一个爬虫时出现的问题,我的项目名字叫做 “spider_city_58”,代码如下: 来启动一个爬虫,却出现了如下错误 ImportError: No module named win32api 一开始尝试了网上其他的方法,就是去下载 ...

Mon Apr 23 01:39:00 CST 2018 0 1085
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM