我惊讶地发现,如果从 PostgreSQL 复制,Cloud Datastream 不支持源中的枚举数据类型。 Datastream 不支持复制枚举 (ENUM) 数据类型的列。 由于我们以这种方式创建了很多字段,因此这对我们来说不是一个可行的选择。 这个限制有什么好的解决方法吗? ...
我惊讶地发现,如果从 PostgreSQL 复制,Cloud Datastream 不支持源中的枚举数据类型。 Datastream 不支持复制枚举 (ENUM) 数据类型的列。 由于我们以这种方式创建了很多字段,因此这对我们来说不是一个可行的选择。 这个限制有什么好的解决方法吗? ...
在使用 DataStream 时尝试对 BigQuery 中的目标表进行分区时出现错误。 一步一步重现这个: 启动从 CloudSQL(MYSQL) 到 BigQuery 的 DataStream 一旦 Stream 完成了 BigQuery 中的所有表,暂停作业分区表之一恢复工作获取错误日志如下 ...
GCP 数据流用于历史数据和 CDC 数据。 我正在将历史负载而非增量/CDC 数据获取到 Bigqery。 datastream 和 Mysql 的所有配置都已正确配置,因为我在其他 gcp 云项目环境中进行了相同的测试。 我有另一个 gcp 云项目环境,我必须在其中实现它,但是没有增量数据 ...
总的来说,我正在尝试在 Cloud SQL 中创建到 Postgres 数据库的数据流连接。 当我试图通过 Terraform 对它进行配置时,我陷入了应该如何创建复制槽的问题。 本指南解释了如何通过 Postgres 客户端并运行 SQL 命令来完成此操作,但我认为可能有一种方法可以直接在 Te ...
我的数据流无法使用专用连接连接到 Cloud SQL(使用专用 IP)。 我已经为复制设置了我的云 SQL (Postgres),因为它已经在为 debezium 流式传输事件。 我在我的 VPC 中创建了一个私有连接,并使用我的数据库私有 IP 填充了连接配置文件。有什么我遗漏的吗? 这是我收到 ...
我们正在尝试使用 Datastream 将数据从 AlloyDB 复制到 Bigquery。 我们收到“发生未知错误。请重试。如果错误仍然存在,请联系 Google 支持。” 在 Datastream 控制台 --> 对象列表中,我们看到所有源表的 Object 状态为“失败”,回填状态为“ ...
我想快速尝试从云 SQL PotgreSQL 到 BigQuery 的数据流。 我创建了一个测试 Cloud SQL 实例,我在其中使用已经是 cloudsqlsuperuser 的postgres 。 但是 Datastream 提供的向导没有帮助:提供的部分语句不起作用。 这是我遵循的步骤。 ...
我正在尝试使用 GCP 上的 DataStreams 和 Dataflow 将 CDC 管道设计到 stream 数据从云 SQL 到 BigQuery,数据流部分工作正常,我可以看到数据以 avro 格式成功传输到 CloudStorage。 当谈到 DataFlow 时,我使用 DataFlow ...
根据此文档,如果使用共享 VPC,则 Datastream 服务帐户需要宿主项目上的 COMPUTE.NETWORKADMIN 角色。 但是,我想知道是否可以分配更精细的权限/角色,因为 COMPUTE.NETWORKADMIN 非常广泛。 ...
因此,我想过滤网站上的零售和批发指标,但在 GA4 中寻找最佳方法时遇到了问题。 我尝试查看数据流,但我不确定这是否适用于我当前的设置。 我的网站区分零售的方式: www.domainname.com/retail www.domainname.com/retail/category ...
我正在尝试在 GCP 数据流中为 oracle 数据库创建连接配置文件。 当我尝试连接到 oracle 数据库时,它显示主机名或端口配置不正确,即使一切都正确。 谁能帮我解决这个问题,我需要为 oracle 端的用户配置任何东西吗? 我附上了创建连接配置文件时遇到的错误快照。 错误快照 ...
你好我有一些问题要问。 我使用 Datastream 来进行 bigquery,如下面的指南https://cloud.google.com/datastream/docs/implementing-datastream-dataflow-analytics 。 但是当我开始流时,我只看到 cha ...
我在 GCP 上以 MySQL 数据库为源启动了Datastream stream,但 stream 失败并出现以下错误: “源数据库上的 Binlog 配置不正确。” 我怎样才能解决这个问题? 我的源数据库有问题吗? ...
我目前正在测试 Google Datastream 到 stream 数据,从 Cloud SQL 到 GCS,然后到 Big Query。 一切都很好,但是一个 200m 行的表当前正在回填数据,我想停止它,因为该表没有在使用中徘徊。 到目前为止,这是我尝试过的: 从 stream 中删除表格。到 ...
几周前,我从模板(云数据流到 BigQuery)创建了一个数据流作业。 我停止了作业,然后尝试使用相同的模板(Cloud Datastream 到 BigQuery)创建一个新作业。 现在,我看到两个需要的新字段(The Pub/Sub subscription being used in a GC ...