[英]How to pass a url value to all subsequent items in the Scrapy crawl?
我正在创建一个CrawlSpider来抓取产品网站。 从第1页开始,我提取www.domain.com/color(简化)形式的类别网址。 在类别页面上,我按照产品详细信息页面的第一个链接,解析产品详细信息页面并通过下一个链接爬网到下一个页面。 因此,每种颜色类别都具有唯一的爬行路径。
难点在于颜色变量不在产品详细信息页面上。 我可以通过解析链接从类别页面中提取它,如下所示:
def parse_item(self, response):
l = XPathItemLoader(item=Greenhouse(), response=response)
l.default_output_processor = Join()
l.add_value('color', response.url.split("/")[-1])
return l.load_item()
但是,我想将此颜色值添加到从特定颜色类别页面开始爬行的产品的产品详细信息页面解析的项目中。 通过以下链接抓取产品网址,因此在第一个链接后丢失引用类别页面。 在Scrapy文档中有关于request.meta的内容可以在解析器之间传递数据,但我不确定这是否适用于此。 任何帮助,将不胜感激。
我的规则是:
Rule(SgmlLinkExtractor(restrict_xpaths=('//table[@id="ctl18_ctlFacetList_dlFacetList"]/tr[2]/td',)),),
Rule(SgmlLinkExtractor(restrict_xpaths=('//table[@id="ctl18_dlProductList"]/tr[1]/td[@class="ProductListItem"][1]',)),callback='parse_item', follow=True,),
Rule(SgmlLinkExtractor(restrict_xpaths=('//a[@id="ctl18_ctl00_lbNext"]',)),callback='parse_item', follow=True, ),
您可以使用规则的process_request
参数:
class MySPider(CrawlSpider):
...
rules = [...
Rule(SgmlLinkExtractor(), process_request='add_color'),
]
def add_color(self, request):
meta = dict(color=request.url.split("/")[-1])
return request.replace(meta=meta)
我会选择史蒂文的方法 ,但编辑原始请求的元数据:
class MySPider(CrawlSpider):
rules = [Rule(SgmlLinkExtractor(), process_request='add_color')]
def add_color(self, request):
request.meta['color'] = request.url.split("/")[-1]
return request
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.