[英]Unable to read from s3 bucket and write to same bucket a different file using boto3
[英]Is there a concurrent read/write limit on a s3 file
存储在 AWS S3 中的单个文件的同时/并发读/写操作的数量是否有限制? 我正在考虑设计一个解决方案,该解决方案需要并行处理存储在单个文件中的大量数据,这意味着在任何给定时间点都会有多个读/写操作。 我想了解这是否有限制。 我不需要数据的一致性。
S3 听起来不像是满足您要求的理想服务。 S3是object存储。 这是过于简单化了,但它基本上意味着您正在处理整个文件。 客户端不会 go 进入 S3 并直接读/写它。
当客户端“读取”S3 上的文件时,它基本上必须将该文件的副本检索到客户端设备的 memory 中并从那里读取它。 这样,它可以处理数千个并行读取(根据本公告最多 5,500 个请求)。
同样,写入 S3 意味着创建文件的新副本/版本。 无法就地写入文件。 因此,虽然 S3 通常可以支持大量并发写入,但多个客户端无法写入同一个文件副本。
也许 EFS 可能符合您的要求,但我认为为这种性能设计的数据库将是更好的选择。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.