![](/img/trans.png)
[英]How to upload a file to Google Cloud Storage on Python 3?
[英]How to upload larger than 5Tb object to Google Cloud Storage?
试图将PostgreSQL 备份(~20 Tb)长期保存到谷歌云存储,我目前正在通过gsutil
将 PostgreSQL pg_dump()
命令传输到流传输。
pg_dump -d $DB_NAME -b --format=t \
| gsutil cp - gs://$BUCKET_NAME/$BACKUP_FILE
但是,我担心该进程会因为 GCS 的5Tb object 大小限制而崩溃。
有没有办法将大于 5Tb 的对象上传到 Google Cloud Storage ?
split
? 我正在考虑将 pipe pg_dump
到 Linux 的split
实用程序和gsutil cp
。
pg_dump -d $DB -b --format=t \
| split -b 50G - \
| gsutil cp - gs://$BUCKET/$BACKUP
这样的东西会起作用吗?
您通常不希望通过流传输上传多 TB 范围内的单个 object。 流传输有两个主要缺点,它们对您来说都是非常坏的消息:
相反,这是我的建议:
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.