[英]Python Yield prevents output/execution in Scrapy Web Spider Crawler
[英]Scrapy Python Crawler - Different Spider for each?
我想使用scrapy抓取许多其他站点。 我想知道这样做的最佳方法是什么?
您对要抓取的每个站点使用不同的“项目”,还是使用不同的“蜘蛛”,或者都不使用?
任何输入将不胜感激
每个站点不同的项目是一个最差的想法。
每个站点使用不同的SPIDER是一个好主意。
如果您可以在一个SPIDER中调整多个站点(基于自然界),则是最好的主意。
但是同样取决于您的要求 。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.