簡體   English   中英

Azure 數據工廠將數據 Blob 復制到 Cosmos db - 需要幫助跳過 2MB 文件

[英]Azure Data factory Copy data Blob to Cosmos db - need help skipping 2MB files

我在管道中有一個 Azure 數據工廠復制活動 - 我正在將數據從 Blob 容器 /jsons in multiple virtual folders/ 復制到 Cosmos DB。 但是,存在且無法轉義的邊緣情況,即大於 2MB 的文件被放置在 Blob 存儲中。 當復制活動選擇它們時,傳輸/和后續管道活動/失敗,因為我達到了 CosmosDB 的 2MB 硬限制。 我嘗試設置查找活動/獲取元數據,但似乎無法正確處理相關(大小)屬性和刪除活動所需的輸出。

任何人都可以就如何處理這個問題提出建議嗎?

謝謝你。

應該可以在 Get Metadata 活動中獲取文件的大小。但請注意,它以字節為單位,只能應用於文件。

在此處輸入圖片說明

據我所知,無法避免 Cosmos db 文檔的 2mb 限制。您可以參考這種情況: Azure Cosmos DB 中存儲的單個文檔的大小限制是多少

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM