[英]unknown command: crawl error
我是python的新手。 我在 64 位操作系统上运行 python 2.7.3 32 位版本。 (我尝试了 64 位,但没有锻炼)。
我按照教程在我的机器上安装了scrapy。 我创建了一个项目,demoz。 但是当我输入scrapy crawl demoz
它显示一个错误。 当我在 (C:\\python27\\scripts) 下点击scrapy 命令时,我遇到了这个东西,它显示:
C:\Python27\Scripts>scrapy
Scrapy 0.14.2 - no active project
Usage:
scrapy <command> [options] [args]
Available commands:
fetch Fetch a URL using the Scrapy downloader
runspider Run a self-contained spider (without creating a project)
settings Get settings values
shell Interactive scraping console
startproject Create new project
version Print Scrapy version
view Open URL in browser, as seen by Scrapy
Use "scrapy <command> -h" to see more info about a command
C:\Python27\Scripts>
我想他们在安装过程中缺少一些东西,任何人都可以帮忙..提前致谢..
您应该在scrapy.cfg
文件所在的 scrapy 项目文件夹中运行scrapy crawl spider_name
命令。
从文档:
爬行
要让我们的蜘蛛工作,请转到项目的顶级目录并运行:
scrapy crawl dmoz
您可以从使用以下命令创建的 scrapy 项目文件夹中运行scrapy crawl demoz
代码
scrapy startproject tutorials
例如,如果您已经启动了名为tutorials
scrapy 项目,则首先转到 tutorials 文件夹并从那里运行crawl
命令
scrapy crawl demoz
如果你已经有一个现有的项目,突然出现这个错误“Scrapy 1.3.3 - 没有活动项目”,在我的情况下,当我打开我的项目时,我看不到scrapy.cfg文件。 我所做的是,我只是对我的项目进行了一些小的更改,例如删除了一些额外的行并将其从 github 部署到实例,并且它起作用了!
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.