我已经使用从docker pull debezium/connect的 docker 图像部署了 debezium 在https://hub.docker.com/r/debezium/connect提供的文档中,环境变量OFFSET_STORAGE_TOPIC之一的描述如下: 运行 Kafka C ...
我已经使用从docker pull debezium/connect的 docker 图像部署了 debezium 在https://hub.docker.com/r/debezium/connect提供的文档中,环境变量OFFSET_STORAGE_TOPIC之一的描述如下: 运行 Kafka C ...
我需要从主题中读取消息,根据提供的配置丰富消息(丰富所需的数据来自外部系统),并将丰富的消息发布到 output 主题。 关于 source 和 output 主题的消息应该是 Avro 格式。 这是自定义 Kafka 连接器的好用例还是我应该使用 Kafka Streams? 为什么我要考虑 K ...
目标:我的目标是使用 Kafka 使用 Kafka Connect 将消息发送到 Cassandra 接收器。 我已经部署了 Kafka 和 Cassandra,我能够单独使用它们中的每一个——我可以毫无问题地将数据发送到 Kafka,使用生产者传递消息,并使用消费者来消费它们。 我使用 cqls ...
我正在使用 Debezium 源连接器 (postgres) 跟踪数据库对 kafka 的更改,我正在使用 kafka jdbc 接收器连接器将数据传输到另一个 postgres 服务器。 这里插入和更新工作正常。 问题在于删除。 每当删除发生在源数据库 debezium 发送墓碑消息。 但是 jd ...
我正在尝试运行一些测试来了解 MM2 的行为。 作为其中的一部分,我有以下问题: 如何在mm2.properties中正确传递 MM2 的自定义消费者组? 基于这个问题,尝试在 mm2.properties 中传递<alias>.group.id=temp_cons_group mm2. ...
我有以下图像在 docker 中运行。 quay.io/debezium/connect:2.0 quay.io/debezium/kafka:2.0 quay.io/debezium/zookeeper:2.0 container-registry.oracle.com/database/ ...
我正在使用 POC Usecase 设置 JDBC 连接器以从 Snowflake 数据库获取数据并将其推送到 Kafka 主题。 我遇到了与时区相关的问题,例外情况是Kafka Connect Date type should not have any time fields set to non ...
我正在运行 Debezium,其中column.include.list配置为源 MySQL 数据库的每个观察表上的列子集。 对源表上记录的更改已成功发布到 Kafka,每条消息before和after的值仅包含该列的子集。 但是,当不在column.include.list中的观察表的列发生更改时 ...
我正在观看 kafka connect 的视频教程,他希望我在 cmd 中使用以下 curl 命令部署 debezium 连接器: 但是,当我运行该命令时,出现以下错误: 关于我做错了什么的任何想法? ...
我已使用 MongoDB 源连接器将 MongoDB Atlas 与我的 Kafka 连接起来。 现在我想通过使用一些 hash function 将消息存储到我的主题中的特定分区。 我查看了有关添加自定义分区程序的 confluent 文档,但一无所获。 ...
我想监控普罗米修斯中的kafka主题消息。 我将同样使用 kafka connect,但我想了解如何在 prometheus tsdb 中获取消息内容详细信息。 ...
我在 ec2 上的 Kafka-worker-connect 和 Datadog 代理并将指标发送到 Datadog。 当我使用 systemctl stop Kafka-worker-connect 时,它会关闭整个应用程序而不会将指标发送给 datadog。 我尝试了 curl 删除操作来停止 ...
我正在尝试使用在 kube.netes AKS 集群中运行的 Confluent 平台中的 JDBC 连接器。 我可以创建连接器,但遇到此错误: 我知道那是因为我没有将驱动程序安装到连接器文件夹中,但我不知道如何将其插入正确的 position。 这就是我创建 Kafka Connect 的方式: ...
我正在使用带有 elasticsearch 接收器连接器( https ://www.confluent.io/hub/confluentinc /kafka-connect- elasticsearch ) 我添加了 dockerfile 并重建了图像,它工作得很好。 我正在使用 http 请求配 ...
我正在尝试将数据从 MySQL 提取到 BigQuery。 为此,我正在使用运行在 Docker 上的 Debezium 组件。 每当我尝试将 BigQuery 接收器连接器部署到 Kafka 连接时,我都会收到此错误: 它表明这是服务帐户密钥的问题(试图找到它) 我授予服务帐户 BigQuery ...
启动了 docker 容器 (cp-kafka-connect-base:7.0.1) 并安装了自我管理的连接器 (debezium-connector-mysql:latest)。 Docker 容器运行良好。 当我尝试如下配置连接器配置时 连接器创建但连接任务失败连接器日志 尝试添加一些额外的 ...
我必须制作用于将 HIVE 连接到 MYSQL 的 Kafka 源和接收器连接器。 我找不到关于上述问题的任何信息。 我也看过融合网站。 ...
如标题中所述,我有一个用例,我想使用 Kafka 连接框架将数据从源 Kafka 主题(Cloudera Kafka 集群)复制到目标 Kafka 主题(AWS MSK Kafka 集群)。 我已经了解了一些可用选项,例如 KafkaCat Utility 和 Mirror Maker 2。但我很 ...
我正在通过融合平台 helm-chart(此处)使用 kafka/kafka-connect。 对于 Kafka-Connect,我想同时安装 debezium SQLServer 源连接器和 BQ 接收器连接器,我在当前设置中发现它的唯一方法是更新template/deployment.yaml ...
创建源连接。 创建接收器连接。 connector.class来自融合社区。 但我想要它来自 Apache Kafka 这是开源的我们正在搜索如何用 apache kafka one 替换该行。 ...