[英]Multiple S3 credentials in a Spark Structured Streaming application
我想將我們的 Delta lake 從 S3 遷移到我們自己的本地 Ceph 存儲中的 Parquet 文件,這兩個文件都可以通過 Spark 中符合 S3 的 s3a API 訪問。 是否有可能為readStream
和writeStream
提供不同的憑證來實現這一點?
s3a 連接器支持按存儲桶配置,因此您可以為內部存儲桶和外部存儲桶聲明一組不同的機密、端點等。
有關規范性詳細信息和示例,請參閱 hadoop s3a 文檔
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.