简体   繁体   English

Spark Structured Streaming 应用程序中的多个 S3 凭据

[英]Multiple S3 credentials in a Spark Structured Streaming application

I want to migrate our Delta lake from S3 to Parquet files in our own on-prem Ceph storage, both accessible through the S3-compliant s3a API in Spark.我想将我们的 Delta lake 从 S3 迁移到我们自己的本地 Ceph 存储中的 Parquet 文件,这两个文件都可以通过 Spark 中符合 S3 的 s3a API 访问。 Is there a possibility to provide different credentials for readStream and writeStream to achieve this?是否有可能为readStreamwriteStream提供不同的凭证来实现这一点?

the s3a connector supports per-bucket configuration, so you can declare a different set of secrets, endpoint etc for your internal buckets from your external ones. s3a 连接器支持按存储桶配置,因此您可以为内部存储桶和外部存储桶声明一组不同的机密、端点等。

consult the hadoop s3a docs for the normative details and examples有关规范性详细信息和示例,请参阅 hadoop s3a 文档

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM