繁体   English   中英

Scrapy教程错误:“不再支持使用多个蜘蛛运行'Scrapy Crawl'”

[英]Scrapy tutorial error: “Running 'Scrapy Crawl' with more than one spider is no longer supported”

Windows 10,命令行终端,Python 3.6.3 | Anaconda,Inc. | (默认值,2017年10月15日,03:27:45)[win32上的[MSC v.1900 64位(AMD64)]]

Python的新手,并按照此处的指导说明进行操作: https : //docs.scrapy.org/en/latest/intro/tutorial.html

在运行第一次爬网的步骤中,出现以下错误...按照教程的建议,我仅创建了一个文件quotes_spider.py。 我也尝试过将目录更改为c:\\Anaconda\\projects\\tutorial\\startprojectc:\\Anaconda\\projects\\tutorial\\startproject\\spiders但遇到相同的错误。

c:\Anaconda\projects\tutorial>c:\Anaconda\Scripts\scrapy.exe -scrapy crawl quotes  

2017-11-09 16:08:26 [scrapy.utils.log] INFO: Scrapy 1.4.0 started (bot: startproject)
2017-11-09 16:08:26 [scrapy.utils.log] INFO: Overridden settings: {'BOT_NAME': 'startproject', 'NEWSPIDER_MODULE': 'startproject.spiders', 'ROBOTSTXT_OBEY': True, 'SPIDER_MODULES': ['startproject.spiders']}
Usage
=====
  scrapy crawl [options] <spider>

scrapy: error: running 'scrapy crawl' with more than one spider is no longer supported

怎么了

....scrapy.exe -scrapy crawl quotes

应该是什么

....scrapy.exe crawl quotes

为什么

这是scrapy的所有可用命令,没有-scrapy选项: 在此处输入图片说明

意见建议

Scrapy官方教程PDF版本

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM