繁体   English   中英

访问元数据会导致 Azure 数据工厂的嵌套管道

[英]Accessing metadata results in a nested pipeline for Azure Data Factory

我构建了一个管道,用于从 blob 容器子文件夹 raw/subfolder 读取元数据。 然后我使用另一个获取元数据任务执行 foreach 循环以获取每个子文件夹的数据,它返回以下类型的数据。 /raw/subfolder1/folder1、/raw/subfolder2/folder1、/raw/subfolder2/folder1 等等。 我需要另一个 foreach 循环来访问每个文件夹内的文件。 问题是您不能在另一个 foreach 循环内运行一个 foreach 循环,因此我无法进一步迭代文件。

我有一个调用上述管道然后使用 foreach 的执行数据管道。 我的问题是我没有找到将 item().name 从上述迭代传递到我的新管道的方法。 您似乎无法从先前的管道传入对象? 我如何才能完成这种嵌套的 foreach 元数据收集,以便我可以进一步迭代我的文件?

您是否尝试过使用参数? 这是它的样子:

  1. 在您的父管道中,单击触发内部(您的新管道)go 到设置的“执行管道”活动,并将项目名称指定为参数“名称”。 在此处输入图像描述
  2. 在您的内部管道中,单击空白处的任意位置并添加新参数“名称”。 在此处输入图像描述
  3. 现在您可以像这样引用该参数:pipeline().parameters.name

如@Andrii 所述,在这种情况下使用参数有效。 有关在活动之间传递参数的更多信息,请参阅此链接。 https://azure.microsoft.com/en-in/resources/azure-data-factory-passing-parameters/

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM