[英]how to iterate over a list of arguments in scrapy spider?
嗨,我正在尝试在 scrapy 蜘蛛命令中传递 arguments 的列表。 我能够为 1 个参数运行它。 但无法为 arguments 列表执行此操作。 请帮忙。 这是我尝试过的。
# -*- coding: utf-8 -*-
import scrapy
import json
class AirbnbweatherSpider(scrapy.Spider):
name = 'airbnbweather'
allowed_domains = ['www.wunderground.com']
def __init__(self,geocode ):
self.geocode = geocode.split(',')
pass
def start_requests(self):
yield scrapy.Request(url="https://api.weather.com/v3/wx/forecast/daily/10day?apiKey=6532d6454b8aa370768e63d6ba5a832e&geocode={0}{1}{2}&units=e&language=en-US&format=json".format(self.geocode[0],"%2C",self.geocode[1]))
def parse(self, response):
resuturant = json.loads(response.body)
yield {
'temperatureMax' : resuturant.get('temperatureMax'),
'temperatureMin' : resuturant.get('temperatureMin'),
'validTimeLocal' : resuturant.get('validTimeLocal'),
}
我可以使用这个命令运行它
scrapy crawl airbnbweather -o BOSTON.json -a geocode="42.361","-71.057"
它工作正常。 但是 II 如何遍历地理编码列表?
list = [("42.361","-71.057"),("29.384","-94.903"),("30.384", "-84.903")]
您只能将字符串用作蜘蛛 arguments ( https://docs.scrapy.org/en/latest/topics/spiders.html#spider-arguments ,所以你应该传递你的字符串,这样做)代码。 以下似乎可以解决问题:
import scrapy
import json
import ast
class AirbnbweatherSpider(scrapy.Spider):
name = 'airbnbweather'
allowed_domains = ['www.wunderground.com']
def __init__(self, geocode, *args, **kwargs):
super().__init__(*args, **kwargs)
self.geocodes = ast.literal_eval(geocode)
def start_requests(self):
for geocode in self.geocodes:
yield scrapy.Request(
url="https://api.weather.com/v3/wx/forecast/daily/10day?apiKey=6532d6454b8aa370768e63d6ba5a832e&geocode={0}{1}{2}&units=e&language=en-US&format=json".format(geocode[0],"%2C",geocode[1]))
然后,您可以像这样运行爬虫:
scrapy crawl airbnbweather -o BOSTON.json -a geocodes='[("42.361","-71.057"),("29.384","-94.903"),("30.384", "-84.903")]'
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.