[英]scrapy: what is wrong with this simple pipeline
我有两个抓痒的蜘蛛,比如说spider1
和spider2
。 spider1
抓取一些页面并将URL收集在文件中。 这是代码:
class FileWriterPipeline(object):
def __init__(self):
self.file = open('somefile.txt'), 'wb')
def process_item(self, item, spider):
if spider.name == 'spider1':
line = item['url'] + "\n"
self.file.write(line)
return item
问题是,一旦我运行spider2
, somefile.txt
就会被清除干净。 有人知道这是怎么回事吗?
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.