[英]Is it possible to upload multiple files into gcp server at a time
我每 10 分鍾就有超過 500 個文件上傳到 gcp 存儲中。 我正在一個接一個地上傳這些文件,這是一個耗時的過程。
那么是否可以在 gcp 上一次性批量上傳這些文件?
def upload_files(**kwargs):
stock_codes = kwargs['data']
bucket_name = 'gcp-bucket-name'
base_path = 'base_path'
storage_client = storage.Client.from_service_account_json(gcp-services.json")
bucket = storage_client.bucket(bucket_name)
for filename in stock_codes:
svg_blob_name = f"{filename}.svg"
svg_blob = bucket.blob(svg_blob_name)
svg_blob.upload_from_filename('file_path')
print(
"File {} uploaded to {}.".format(
f"{filename}", svg_blob_name
)
)
是的。 我不知道你使用哪種技術,但它可以通過
例如使用 gsutil。 嘗試以下命令 -
gsutil -m cp -r dir gs://my-bucket
這里的 -m 標志啟用並行復制
有關更多信息,請查看此鏈接 - https://cloud.google.com/storage/docs/gsutil/commands/cp
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.