[英]Multiple S3 credentials in a Spark Structured Streaming application
我想将我们的 Delta lake 从 S3 迁移到我们自己的本地 Ceph 存储中的 Parquet 文件,这两个文件都可以通过 Spark 中符合 S3 的 s3a API 访问。 是否有可能为readStream
和writeStream
提供不同的凭证来实现这一点?
s3a 连接器支持按存储桶配置,因此您可以为内部存储桶和外部存储桶声明一组不同的机密、端点等。
有关规范性详细信息和示例,请参阅 hadoop s3a 文档
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.