繁体   English   中英

我如何让Scrapy爬进python项目?

[英]How can I get have Scrapy crawling inside a python project ?

我有一个个人项目,导致我使用Selenium以便从一对私人[邮件,密码]对获得公共URL地址。

我想在此URL上保存信息,然后按照Scrapy教程获得如何使用此工具进行操作。 但是,有没有一种方法可以在MyScrapClass.crawl()这样的Python项目中启动爬网,而不是使用linux命令scrapy crawl MyScrapProject

使用CrawlerProcess或CrawlerRunner类从python脚本中运行scrapy。

http://doc.scrapy.org/en/latest/topics/practices.html

例子来自于scrapy网站

import scrapy
from scrapy.crawler import CrawlerProcess

class MySpider(scrapy.Spider):
    # Your spider definition
    ...

process = CrawlerProcess()
process.crawl(MySpider)
# the script will block here until the crawling is finished
process.start()

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM