繁体   English   中英

Apache 带数据流的光束:WriteToBigQuery 的标志“ignore_unknown_columns”不起作用

[英]Apache Beam with Dataflow: flag 'ignore_unknown_columns' for WriteToBigQuery not working

我正在使用 Apache Beam(Python SDK 版本 2.37.0)和 Google Dataflow 构建一个流媒体管道,以将我通过 Pubsub 收到的一些数据写入 BigQuery。

我处理数据并以这样的字典表示的行结束:

{'val1': 17.4, 'val2': 40.8, 'timestamp': 1650456507, 'NA_VAL': 'table_name'}

然后我想使用WriteToBigQuery将值插入到我的表中。

但是,我的表只有列val1val2timestamp 因此,应忽略NA_VAL 根据我对文档的理解,这应该可以通过设置ignore_unknown_columns=True来实现。

但是,在 Dataflow 中运行管道时,我仍然收到错误消息,并且没有任何值插入到表中:

There were errors inserting to BigQuery. Will not retry. Errors were [{'index': 0, 'errors': [{'reason': 'invalid', 'location': 'NA_VAL', 'debugInfo': '', 'message': 'no such field: NA_VAL.'}]}]

我试过像这样的简单作业配置

rows | beam.io.WriteToBigQuery(
            table='PROJECT:DATASET.TABLE',
            ignore_unknown_columns=True)

以及那些参数

rows | beam.io.WriteToBigQuery(
            table='PROJECT:DATASET.TABLE',
            ignore_unknown_columns=True,
            create_disposition=beam.io.BigQueryDisposition.CREATE_NEVER,
            write_disposition=beam.io.BigQueryDisposition.WRITE_APPEND,
            method='STREAMING_INSERTS',
            insert_retry_strategy='RETRY_NEVER')

问题:我是否遗漏了一些阻止管道工作的东西? 有没有人有同样的问题和/或解决方案?

不幸的是你被虫子咬了。 这被报告为https://issues.apache.org/jira/browse/BEAM-14039并由https://github.com/apache/beam/pull/16999修复。 版本 2.38.0 将包含此修复程序。 该版本的验证今天刚刚结束,因此它应该很快就会可用。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM