簡體   English   中英

當節點出現故障時,kafka 主題不會復制

[英]kafka topic is not replicating when a node goes down

我正在運行 kafka 集群版本 3 的 3 個節點。我創建了一個包含 3 個分區和 3 個復制因子的主題。我將副本減少到 2。

{"version":1,
  "partitions":[
     {"topic":"vpn7-test","partition":0,"replicas":[1,2]},
     {"topic":"vpn7-test","partition":1,"replicas":[1,2]},
     {"topic":"vpn7-test","partition":2,"replicas":[1,2]}
]}

bin/kafka-reassign-partitions.sh --bootstrap-server kafka1:9092 --reassignment-json-file kafka_replica_update.json --execute

現在我的主題屬性是:

bin/kafka-topics.sh --describe --topic vpn7-test --bootstrap-server kafka1:9092
Topic: vpn7-test        TopicId: 6WV4x3Q5SjW_nKRZdb0ZrA PartitionCount: 3       ReplicationFactor: 2    Configs: segment.bytes=1073741824,max.message.bytes=1000000000,unclean.leader.election.enable=true,retention.bytes=-1
        Topic: vpn7-test        Partition: 0    Leader: 1       Replicas: 1,2   Isr: 2,1
        Topic: vpn7-test        Partition: 1    Leader: 1       Replicas: 1,2   Isr: 2,1
        Topic: vpn7-test        Partition: 2    Leader: 1       Replicas: 1,2   Isr: 2,1

一段時間后,我停止了經紀人 ID 為 1 的 kafka1。

現在主題模式已更改

bin/kafka-topics.sh --describe --topic vpn7-test --bootstrap-server kafka2:9092
Topic: vpn7-test        TopicId: 6WV4x3Q5SjW_nKRZdb0ZrA PartitionCount: 3       ReplicationFactor: 2    Configs: segment.bytes=1073741824,max.message.bytes=1000000000,unclean.leader.election.enable=true,retention.bytes=-1
        Topic: vpn7-test        Partition: 0    Leader: 2       Replicas: 1,2   Isr: 2
        Topic: vpn7-test        Partition: 1    Leader: 2       Replicas: 1,2   Isr: 2
        Topic: vpn7-test        Partition: 2    Leader: 2       Replicas: 1,2   Isr: 2

為什么Isr沒有更新到 2,3。 Broker1 已死,現在我剩下 2 個經紀人 2 和 3,分區應該自動從 1 移動到 3。

Kafka 不會自動將分區遷移到主題本身不知道的活動代理。

您需要再次使用重新分配工具將代理 3 添加回副本數組

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM