![](/img/trans.png)
[英]Google BigQuery: Data drop when streaming insert right after copy to same table with WRITE_TRUNCATE
[英]Google BigQuery WRITE_TRUNCATE erasing all data
我在BQ中有一个表设置,如果我写某个日期分区上exists
数据,则希望它覆盖。 我已经将job_config设置为使用WRITE_TRUNCATE。
#file_obj = Some ndjson StringIO file like obj
job_config = bigquery.QueryJobConfig()
# Set configuration.query.destinationTable
dest_dataset = 'test'
dest_table_name = 'sales_data'
destination_dataset = client.dataset(dest_dataset)
destination_table = destination_dataset.table(dest_table_name)
job_config.destination = destination_table
# Set configuration.query.writeDisposition & SourceFormat
job_config.write_disposition = 'WRITE_TRUNCATE'
job_config.source_format = bigquery.SourceFormat.NEWLINE_DELIMITED_JSON
# Set partitioning
time_partitioning = bigquery.table.TimePartitioning(
bigquery.table.TimePartitioningType.DAY, 'date'
)
job_config.time_partitioning = time_partitioning
# Start the load job
job = client.load_table_from_file(
file_obj, destination_table,
job_config=job_config
)
# Wait for the job to finish
job.result()
但是,我注意到,回填数据时,即使日期分区不同,它也始终会覆盖表中的所有数据。 例如,如果我的表中的数据来自20190101-20190201
而我加载的数据则来自20190202-Present
我的整个表将被擦除,并且仅包含新数据。 由于数据位于不同的分区日期,是否不应该保留这些数据? 知道为什么会发生这种情况,或者我缺少什么吗?
知道为什么会发生这种情况,或者我缺少什么吗?
job_config.write_disposition ='WRITE_TRUNCATE'是整个表范围的操作-并说If the table already exists - overwrites the table data.
这不考虑任何分区,并且会影响整个表
如果需要覆盖特定的分区,则需要专门引用此分区-例如,作为sales_data$20190202
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.