簡體   English   中英

Scrapy 從一個文件運行多個蜘蛛

[英]Scrapy Running multiple spiders from one file

我用 2 個蜘蛛/類制作了 1 個文件。 第二個蜘蛛使用第一個蜘蛛的一些數據。 但它似乎不起作用。 這是我為啟動和啟動蜘蛛所做的事情

process=CrawlerProcess()
process.crawl(Zoopy1)
process.crawl(Zoopy2)
process.start()

你有什么建議

您的代碼將同時運行 2 個蜘蛛。
可以使用@defer.inlineCallbacks 順序運行蜘蛛(在Zoopy1 Zoopy2

from twisted.internet import reactor, defer
from scrapy.crawler import CrawlerRunner
from scrapy.utils.log import configure_logging
...

configure_logging()
runner = CrawlerRunner()

@defer.inlineCallbacks
def crawl():
    yield runner.crawl(Zoopy1)
    yield runner.crawl(Zoopy2)
    reactor.stop()

crawl()
reactor.run()

替代選項(如果它適合您的任務) - 是將 2 個蜘蛛的邏輯合並到單個蜘蛛 Class,

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM