繁体   English   中英

Kafka Source JDBC 连接器-微批处理

[英]Kafka Source JDBC Connector - Micro-batching

作为 POC 的一部分,我有一个 Kafka JDBC Source Connector 任务,它基本上读取 MySQL 表的所有内容并将记录转储到 Kafka 主题中。

该表仅包含 2 条记录,并且我的 batch.max.rows 值为 2。当任务以“批量”模式运行时,我在 kafka 主题中看到 2 条单独的 JSON 记录。 如何配置连接器以插入 1 个 JSON 记录,其中包含一个包含这 2 个记录的 JSON 数组。 最终没有。 发布到 kafka 主题的消息数为 1 而不是 2。

每个数据库行都将成为唯一的 Kafka 记录。

如果您想加入 / window 记录,那么您将使用 Stream 处理器

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM