[英]I started web crawling using Storm Crawler but I do not know where crawled results go to? Im not using Solr or Elastic Search
Storm Crawler 開始抓取數據,但我似乎找不到數據的存儲位置 我需要將這些數據保存到數據庫中,以便我可以將數據連接到遠程服務器並為其編制索引。 Storm爬蟲好像主要關注Solr和Elastic的集成,。! 我只想將其數據存儲到數據庫中,這樣我就可以使用任何站點搜索解決方案,如 Typesense、flex search 和任何其他站點搜索軟件。
我對 web 很陌生,所以我只是安裝了運行所需的軟件。
SC 不關注 SOLR 或 ES。 例如有一個SQL 模塊。 至於“爬到哪里去了”,要看你的拓撲是干什么的。 也許嘗試解釋什么螺栓正在運行等......
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.