[英]How to configure the Kafka Cluster to work with Elastic Search Cluster?
我必須構建一個像這種拓撲結構的日志集群和監控集群(為了高可用性)。 我想知道如何配置這些日志托運人集群。 (我在圖像中有 2 個地形)
如果我在 Kafka 集群中使用帶有 FileBeat 的 Kafka,Elastic Search 會收到重復數據,因為 Kafka 在數據中有副本嗎?
如果我使用 Logstash(在彈性搜索集群中)從 Kafka 集群獲取日志,配置應該如何,因為我認為 Logstash 不知道從哪里讀取 Kafka 集群上的日志效率。
謝謝閱讀。 如果您有任何想法,請與我討論^^!
正如我看到的兩種配置都與 Kafka 兼容,您可以在消費者和生產者階段使用 filebeat、logstash 或混合它們!
恕我直言,一切都取決於您的需求,即:有時我們在攝取到 kafka(生產者階段)之前或在將數據索引到彈性(消費者階段)之前使用一些過濾器來豐富數據,在這種情況下最好使用 logsatsh,因為使用過濾器比在 filebeat 中更容易
但是如果你想玩原始數據,也許 filebeat 更好,因為代理更輕。
關於您的問題:
https://www.elastic.co/guide/en/logstash/current/plugins-inputs-kafka.html
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.