[英]Kafka as a data store for future events
我有一個Kafka集群,它根據源中的數據更改從源接收消息。 在某些情況下,消息打算在將來進行處理。 所以我有2個選擇:
選項1更易於執行,但我的問題是:Kafka是持久的數據存儲嗎? 有人與Kafka進行過此類賽事嗎? 設計中是否有任何漏洞?
您可以配置消息在Kafka中停留的時間(log.retention.hours)。
但是請記住,Kafka旨在用作生產者和消費者之間的“實時緩沖區”,而不是用作持久數據存儲區。 我認為Kafka + Storm不是適合您的用例的工具。 為什么不只在某些分布式文件系統中編寫消息,然后安排作業(MapReduce,Spark ...)來處理這些事件?
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.