[英]Azure Data factory Copy data Blob to Cosmos db - need help skipping 2MB files
我在管道中有一個 Azure 數據工廠復制活動 - 我正在將數據從 Blob 容器 /jsons in multiple virtual folders/ 復制到 Cosmos DB。 但是,存在且無法轉義的邊緣情況,即大於 2MB 的文件被放置在 Blob 存儲中。 當復制活動選擇它們時,傳輸/和后續管道活動/失敗,因為我達到了 CosmosDB 的 2MB 硬限制。 我嘗試設置查找活動/獲取元數據,但似乎無法正確處理相關(大小)屬性和刪除活動所需的輸出。
任何人都可以就如何處理這個問題提出建議嗎?
謝謝你。
應該可以在 Get Metadata 活動中獲取文件的大小。但請注意,它以字節為單位,只能應用於文件。
據我所知,無法避免 Cosmos db 文檔的 2mb 限制。您可以參考這種情況: Azure Cosmos DB 中存儲的單個文檔的大小限制是多少
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.