[英]How to transform JSON file data directly in a Azure Data Factory pipeline
I want to copy a JSON file into Azure SQL table, but it has nested Hierarchy, I only need the fields/values of the fields Ergon_Businessunit_code, KPL, Ergon_Functiegroep_code, Aantal.我想将 JSON 文件复制到 Azure SQL 表中,但它具有嵌套层次结构,我只需要字段 Ergon_Businessunit_code、KPL、Ergon_Functiegroep_code、Aantal 的字段/值。 How to do that?
怎么做? I tried with lookup en foreach, but got array errors
我尝试使用 lookup en foreach,但出现数组错误
Yes as Mark Kromer mentioned, you can copy JSON data to the Azure SQL table using the dataflow
activity.是的,正如 Mark Kromer 提到的,您可以使用
dataflow
活动将 JSON 数据复制到 Azure SQL 表。
Here are the steps to copy JSON to Azure SQL using dataflow:以下是使用数据流将JSON复制到Azure SQL的步骤:
Connect the source output to flatten
transformation and under Unroll by and Unroll root, select " rows " array.连接源 output 以
flatten
转换,并在 Unroll by 和 Unroll root 下,select“行”数组。
You can remove the columns which not required to pass to the sink.您可以删除不需要传递给接收器的列。
dataflow
activity to the pipeline and execute it.dataflow
活动添加到管道并执行它。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.