[英]how to load a large csv file to bigquery using pandas dataframe in cloud run?
我在 gcs 中有 csv 個文件,我想在 bigquery 中加載它們,我正在使用 pandas 在 bigquery 中提取文件,但這些文件很大 (10gb),我使用 cloud run 來執行作業:
df=pd.read_csv(uri,sep=delimiter,dtype = str)
# Run the load job
load_job = client.load_table_from_dataframe(df, table)
我總是出錯
Memory limit of 512M exceeded with 519M used. Consider increasing the memory limit
如何為我的雲運行選擇最好的 memory,我可以使用 chunck dataframe 將數據加載到 bigquery 謝謝
壞主意是增加Cloud Run memory 。 (它不可擴展)
好主意是使用BigQuery CSV 導入功能。 如果您要對數據執行轉換,則可以在 SQL 中執行這些轉換后立即運行查詢。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.