繁体   English   中英

Azure 数据工厂将数据 Blob 复制到 Cosmos db - 需要帮助跳过 2MB 文件

[英]Azure Data factory Copy data Blob to Cosmos db - need help skipping 2MB files

我在管道中有一个 Azure 数据工厂复制活动 - 我正在将数据从 Blob 容器 /jsons in multiple virtual folders/ 复制到 Cosmos DB。 但是,存在且无法转义的边缘情况,即大于 2MB 的文件被放置在 Blob 存储中。 当复制活动选择它们时,传输/和后续管道活动/失败,因为我达到了 CosmosDB 的 2MB 硬限制。 我尝试设置查找活动/获取元数据,但似乎无法正确处理相关(大小)属性和删除活动所需的输出。

任何人都可以就如何处理这个问题提出建议吗?

谢谢你。

应该可以在 Get Metadata 活动中获取文件的大小。但请注意,它以字节为单位,只能应用于文件。

在此处输入图片说明

据我所知,无法避免 Cosmos db 文档的 2mb 限制。您可以参考这种情况: Azure Cosmos DB 中存储的单个文档的大小限制是多少

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM