简体   繁体   English

写入行时 Azure ADF DataFlow 失败

[英]Azure ADF DataFlow failed while writing rows

I have dataflow in Azure Data Factory which convert parquet files into csv.我在 Azure 数据工厂中有数据流,可将镶木地板文件转换为 csv。 It works when I have 10 files with a size of 10 KB.当我有 10 个大小为 10 KB 的文件时,它可以工作。 But if I have 3 files with a size of 22 KB there is an error 'failed while writing rows'.但是,如果我有 3 个大小为 22 KB 的文件,则会出现“写入行失败”的错误。

Do you know what is possible solution?你知道什么是可能的解决方案吗?

Provided information is not sufficient.提供的信息是不够的。 You can try increasing core size and also look into below blog if it help you.您可以尝试增加内核大小,如果对您有帮助,也可以查看下面的博客。

Click Here 点击这里

Parquet file standard does not allow certain special characters. Parquet 文件标准不允许某些特殊字符。 Use select transform or sink transform to remap these columns to different names.使用选择变换或接收变换将这些列重新映射到不同的名称。 You can do it generically using pattern matching to rename all such columns also.您也可以使用模式匹配来重命名所有此类列。

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM