繁体   English   中英

Spark Structured Streaming 应用程序中的多个 S3 凭据

[英]Multiple S3 credentials in a Spark Structured Streaming application

我想将我们的 Delta lake 从 S3 迁移到我们自己的本地 Ceph 存储中的 Parquet 文件,这两个文件都可以通过 Spark 中符合 S3 的 s3a API 访问。 是否有可能为readStreamwriteStream提供不同的凭证来实现这一点?

s3a 连接器支持按存储桶配置,因此您可以为内部存储桶和外部存储桶声明一组不同的机密、端点等。

有关规范性详细信息和示例,请参阅 hadoop s3a 文档

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM