繁体   English   中英

亚马逊相当于谷歌存储传输服务

[英]Amazon equivalent of Google Storage Transfer Service

我在 GCP 中有一个包含数百万个 3kb 文件的存储桶,我想将它们复制到 S3 存储桶中。 我知道谷歌有一个超快速的传输服务,但是我无法使用该解决方案将数据推送回 S3。

由于对象的数量,运行简单的gsutil -m rsync gs://mybucket s3://mybucket可能无法完成这项工作,因为传输所有内容至少需要一周时间。

有比这更快的解决方案吗?

在 AWS 方面,您可能想看看S3 Transfer Acceleration是否有帮助。 启用它和命名它有特定的要求。 您可能希望确保存储桶位于当前存储数据的位置附近,但这可能有助于加快速度。

我们在将小文件推送到 S3 时遇到了同样的问题。 压缩并将其存储回原处执行相同的操作。 这是为您的帐户设置的限制。

如文档中所述,您需要在发送大量请求之前打开支持票以增加限制。

https://docs.aws.amazon.com/AmazonS3/latest/dev/request-rate-perf-thinkations.html

在这里,文件的大小或所有对象的大小并不重要。 这是您拥有的文件数量的问题。

希望能帮助到你。

就我个人而言,我认为您将遇到的主要问题不是 Amazon S3 服务的入口率,而是 Google 网络的网络出口率。 即使您启用了 S3 Transfer Acceleration 服务,您仍然会受到 Google 网络的出口速度的限制。

您可以设置其他服务,这些服务可能有助于加快流程。 也许可以研究一种互连解决方案,它允许您在网络之间建立快速链接。 设置最简单的解决方案是Cloud VPN解决方案,它可以让您在 AWS 和 Google 网络之间设置快速上行链路(每个隧道 1.5-3 Gbps)。

否则,根据您的数据要求,传输 3,000 GB 的数据量并不可怕,设置云服务器以在一周内传输数据也不算太糟糕。 您可能会发现,当您设置另一个解决方案时,首先启动机器并让它运行一周可能会更容易。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM