[英]kafka topic is not replicating when a node goes down
我正在運行 kafka 集群版本 3 的 3 個節點。我創建了一個包含 3 個分區和 3 個復制因子的主題。我將副本減少到 2。
{"version":1,
"partitions":[
{"topic":"vpn7-test","partition":0,"replicas":[1,2]},
{"topic":"vpn7-test","partition":1,"replicas":[1,2]},
{"topic":"vpn7-test","partition":2,"replicas":[1,2]}
]}
bin/kafka-reassign-partitions.sh --bootstrap-server kafka1:9092 --reassignment-json-file kafka_replica_update.json --execute
現在我的主題屬性是:
bin/kafka-topics.sh --describe --topic vpn7-test --bootstrap-server kafka1:9092
Topic: vpn7-test TopicId: 6WV4x3Q5SjW_nKRZdb0ZrA PartitionCount: 3 ReplicationFactor: 2 Configs: segment.bytes=1073741824,max.message.bytes=1000000000,unclean.leader.election.enable=true,retention.bytes=-1
Topic: vpn7-test Partition: 0 Leader: 1 Replicas: 1,2 Isr: 2,1
Topic: vpn7-test Partition: 1 Leader: 1 Replicas: 1,2 Isr: 2,1
Topic: vpn7-test Partition: 2 Leader: 1 Replicas: 1,2 Isr: 2,1
一段時間后,我停止了經紀人 ID 為 1 的 kafka1。
現在主題模式已更改
bin/kafka-topics.sh --describe --topic vpn7-test --bootstrap-server kafka2:9092
Topic: vpn7-test TopicId: 6WV4x3Q5SjW_nKRZdb0ZrA PartitionCount: 3 ReplicationFactor: 2 Configs: segment.bytes=1073741824,max.message.bytes=1000000000,unclean.leader.election.enable=true,retention.bytes=-1
Topic: vpn7-test Partition: 0 Leader: 2 Replicas: 1,2 Isr: 2
Topic: vpn7-test Partition: 1 Leader: 2 Replicas: 1,2 Isr: 2
Topic: vpn7-test Partition: 2 Leader: 2 Replicas: 1,2 Isr: 2
為什么Isr沒有更新到 2,3。 Broker1 已死,現在我剩下 2 個經紀人 2 和 3,分區應該自動從 1 移動到 3。
Kafka 不會自動將分區遷移到主題本身不知道的活動代理。
您需要再次使用重新分配工具將代理 3 添加回副本數組
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.