繁体   English   中英

使用 BigQuery Spark 连接器保存分区表

[英]Saving partitioned table with BigQuery Spark connector

我想使用来自 pyspark 的以下两个选项(partition by 和 require filter)创建一个表,但我看不到使用 bigquery 连接器执行此操作的选项

这就是我在 BigQuery 中的做法

CREATE dataset.table AS SELECT XXXX 
PARTITION BY
  DATE_TRUNC(collection_date, DAY) OPTIONS ( require_partition_filter = TRUE)

这是我通常做的

    dataframe
        .write
        .format("bigquery")
        .mode(mode)
        .save(f"{dataset}.{table_name}")

您可以使用partitionFielddatePartitionpartitionType

对于集群使用 - clusteredFields

查看更多选项:

https://github.com/GoogleCloudDataproc/spark-bigquery-connector#properties

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM