[英]Accessing metadata results in a nested pipeline for Azure Data Factory
我构建了一个管道,用于从 blob 容器子文件夹 raw/subfolder 读取元数据。 然后我使用另一个获取元数据任务执行 foreach 循环以获取每个子文件夹的数据,它返回以下类型的数据。 /raw/subfolder1/folder1、/raw/subfolder2/folder1、/raw/subfolder2/folder1 等等。 我需要另一个 foreach 循环来访问每个文件夹内的文件。 问题是您不能在另一个 foreach 循环内运行一个 foreach 循环,因此我无法进一步迭代文件。
我有一个调用上述管道然后使用 foreach 的执行数据管道。 我的问题是我没有找到将 item().name 从上述迭代传递到我的新管道的方法。 您似乎无法从先前的管道传入对象? 我如何才能完成这种嵌套的 foreach 元数据收集,以便我可以进一步迭代我的文件?
如@Andrii 所述,在这种情况下使用参数有效。 有关在活动之间传递参数的更多信息,请参阅此链接。 https://azure.microsoft.com/en-in/resources/azure-data-factory-passing-parameters/
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.