簡體   English   中英

Scrapy教程錯誤:“不再支持使用多個蜘蛛運行'Scrapy Crawl'”

[英]Scrapy tutorial error: “Running 'Scrapy Crawl' with more than one spider is no longer supported”

Windows 10,命令行終端,Python 3.6.3 | Anaconda,Inc. | (默認值,2017年10月15日,03:27:45)[win32上的[MSC v.1900 64位(AMD64)]]

Python的新手,並按照此處的指導說明進行操作: https : //docs.scrapy.org/en/latest/intro/tutorial.html

在運行第一次爬網的步驟中,出現以下錯誤...按照教程的建議,我僅創建了一個文件quotes_spider.py。 我也嘗試過將目錄更改為c:\\Anaconda\\projects\\tutorial\\startprojectc:\\Anaconda\\projects\\tutorial\\startproject\\spiders但遇到相同的錯誤。

c:\Anaconda\projects\tutorial>c:\Anaconda\Scripts\scrapy.exe -scrapy crawl quotes  

2017-11-09 16:08:26 [scrapy.utils.log] INFO: Scrapy 1.4.0 started (bot: startproject)
2017-11-09 16:08:26 [scrapy.utils.log] INFO: Overridden settings: {'BOT_NAME': 'startproject', 'NEWSPIDER_MODULE': 'startproject.spiders', 'ROBOTSTXT_OBEY': True, 'SPIDER_MODULES': ['startproject.spiders']}
Usage
=====
  scrapy crawl [options] <spider>

scrapy: error: running 'scrapy crawl' with more than one spider is no longer supported

怎么了

....scrapy.exe -scrapy crawl quotes

應該是什么

....scrapy.exe crawl quotes

為什么

這是scrapy的所有可用命令,沒有-scrapy選項: 在此處輸入圖片說明

意見建議

Scrapy官方教程PDF版本

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM