[英]Kafka topic per producer
假设我有多个设备。 每个设备都有不同类型的传感器。 现在我想将每个传感器的每个设备的数据发送到 kafka。 但我对 kafka 主题感到困惑。 用于处理这些实时数据
每个设备都有 kafka 主题并且来自该设备的所有传感器都将数据发送到特定的 kafka 主题是否好,或者我应该创建一个主题并让所有设备将数据发送到该主题。
如果我采用第一种情况,我们将为每个设备创建主题,然后,
设备 1(传感器 A、B、C)-> 主题 1
设备 2(传感器 A、B、C)-> 主题 2
Case 2: where, 向一个topic发送数据
设备 1(传感器 A、B、C)、设备 2(传感器 A、B、C)....设备 N....-> 主题
这不会成为数据的瓶颈吗? 由于它将表现为来自某个传感器的队列数据将远远落后于队列并且不会被实时处理。
这个模型会缩放吗?
编辑
假设每个设备都与用户相关联(多对一)。 所以我想根据设备处理数据。 所以我想处理数据的方式是,每台设备及其传感器数据经过一些处理后都会发送给用户。
说我在关注
设备 1
-> 传感器 A - 主题 1 分区 1
-> 传感器 B - Topic1 Part 2
设备 2
-> 传感器 A - Topic2 分区 1
-> 传感器 B - Topic2 分区 2
我想要一些发布/订阅类型的行为。 由于可以添加或删除设备,因此也可以添加或删除传感器。 有没有办法动态创建这些主题和分区。
如果不是 kafka,什么 pub/sub 会适合这种行为。
这取决于您的语义:
例如,如果您有不同类型的传感器收集不同的数据,您应该为每种类型使用一个主题。
由于可以添加或删除设备,因此也可以添加或删除传感器。 有没有办法动态创建这些主题和分区。
如果设备元数据(用于区分日期来自何处)嵌入在每条消息中,则您应该使用具有多个分区的单个主题来横向扩展。 添加新主题或分区是可能的,但必须手动完成。 对于添加新分区,问题可能是它可能会更改您的数据分布,从而可能会破坏语义。 因此,最佳实践是从一开始就对主题进行过度分区以避免添加新分区。
如果没有嵌入的元数据,您将需要多个主题(例如,每个用户或每个设备)来区分消息来源。
作为替代方案,可能具有多个分区的单个主题和从设备/传感器到分区的固定映射——通过使用自定义分区器——也可以工作。 对于这种情况,添加新分区没有问题,因为您可以控制数据分布并保持其稳定。
更新
有一篇博客文章讨论了这个: https : //www.confluent.io/blog/put-several-event-types-kafka-topic/
我会创建基于传感器的主题和基于设备的分区:
A sensor on Device 1 -> topic A, partition 1.
A sensor on Device 2 -> topic A, partition 2.
B sensor on Device 2 -> topic B, partition 2.
等等。
我不知道你有什么样的传感器,但它们似乎在语义上属于同一组数据。 在分区的帮助下,您可以进行并行处理。
但这取决于您希望如何处理数据:一起处理传感器还是处理设备更重要?
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.