![](/img/trans.png)
[英]How to read BigQuery table from java spark with BigQuery connector
[英]How to reduce the temporary table expiration time in BigQuery
我們運行訪問BigQuery
的Spark
作業。 在讀取階段,數據從命名約定_sbc_*
的臨時表中提取。 默認情況下,表到期時間為24 小時。 但對於我們的用例, 1 小時的保留期綽綽有余。 我想知道是否可以將臨時表的過期時間從 24 小時縮短到 1 小時。
下面是我們如何實例化spark config
,
val sparkConf = new SparkConf
sparkConf.setAppName("test-app")
sparkConf.setMaster("local[*]")
sparkConf.set("viewsEnabled", "true")
sparkConf.set("parentProject", "<parentProject>")
sparkConf.set("materializationProject", "<materializationProject>")
sparkConf.set("materializationDataset", "<materializationDataset>")
sparkConf.set("credentials", "<credentials>")
注意:臨時表是在為materializationProject
參數傳遞的項目中創建的。
星火版本: spark-2.3.1
spark-bigquery-connector
不提供任何選項來設置它在讀取期間創建的物化視圖的到期時間。
但是,如果您為這些作業使用特定的materializationDataset
,則可以在 BigQuery 中直接定義該數據集的默認到期時間。 它將應用於數據集下創建的所有表和視圖。
bq update --default_table_expiration 3600 materializationProject:materializationDataset
自 2023 年 1 月 13 日起,現在似乎有一個名為materializationExpirationTimeInMinutes
的選項用於定義臨時表到期時間。 如果未設置,則默認為 24 小時。
看這里。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.