![](/img/trans.png)
[英]How to upload a file to Google Cloud Storage on Python 3?
[英]How to upload larger than 5Tb object to Google Cloud Storage?
試圖將PostgreSQL 備份(~20 Tb)長期保存到谷歌雲存儲,我目前正在通過gsutil
將 PostgreSQL pg_dump()
命令傳輸到流傳輸。
pg_dump -d $DB_NAME -b --format=t \
| gsutil cp - gs://$BUCKET_NAME/$BACKUP_FILE
但是,我擔心該進程會因為 GCS 的5Tb object 大小限制而崩潰。
有沒有辦法將大於 5Tb 的對象上傳到 Google Cloud Storage ?
split
? 我正在考慮將 pipe pg_dump
到 Linux 的split
實用程序和gsutil cp
。
pg_dump -d $DB -b --format=t \
| split -b 50G - \
| gsutil cp - gs://$BUCKET/$BACKUP
這樣的東西會起作用嗎?
您通常不希望通過流傳輸上傳多 TB 范圍內的單個 object。 流傳輸有兩個主要缺點,它們對您來說都是非常壞的消息:
相反,這是我的建議:
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.