繁体   English   中英

Azure Data Factory在从SQL到ADLS的副本上抛出“需要长度”错误

[英]Azure Data Factory throws 'Length Required" error on copy from SQL to ADLS

我试图通过Azure数据工厂(ADF)将数据从本地SQL服务器复制到Azure数据湖存储(ADLS)。 一切似乎都有效,除非我运行(调试或触发)管道,我得到错误:

{“errorCode”:“2200”,“message”:“失败发生在'Sink'侧.ResuCode = UserErrorAdlsFileWriteFailed,'Type = Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,Message =写入'AzureDataLakeStore'失败。消息:远程服务器返回错误:(411)Length Required ..响应详细信息:\\ r \\ nLLength必需\\ r \\ n \\ r \\ n

长度要求

\\ r \\ n

HTTP错误411.请求必须分块或具有内容长度。

\\ r \\ n \\ r \\ n,Source = Microsoft.DataTransfer.ClientLibrary,''Type = System.Net.WebException,Message =远程服务器返回错误:(411)Length Required。,Source = System,'“, “failureType”:“UserError”,“target”:“CopyData1”}

真正奇怪的是,以下管道可以工作:

  • SQL tbl1 - > SQL tbl2
  • ADLS source.txt - > ADLS sink.txt

即读/写访问按预期工作。 后一个管道也能够创建/覆盖sink.txt文件。

但是当我运行管道时

  • SQL tbl1 - > sink.txt

我得到了长度要求的错误。 如果sink.txt存在,管道甚至会删除它!

我正在使用ADFv2,ADLS Gen1,ADF和ADLS驻留在相同的订阅/资源组中,使用自主/ Azure集成运行时(分别用于SQL / ADLS)。 我已经使用源语句进行测试,就像“SELECT 1 Col”一样简单。 还测试了没有数据集模式,以及模式+映射。

这是一个错误,还是我错过了什么? 需要哪个“长度”?


编辑1:最小的JSON脚本

pipeline1.json

{
    "name": "pipeline1",
    "properties": {
        "activities": [
            {
                "name": "CopyData1",
                "type": "Copy",
                "policy": {
                    "timeout": "7.00:00:00",
                    "retry": 0,
                    "retryIntervalInSeconds": 30,
                    "secureOutput": false,
                    "secureInput": false
                },
                "typeProperties": {
                    "source": {
                        "type": "SqlSource",
                        "sqlReaderQuery": "SELECT TOP 1 'x' AS col1 FROM sys.tables"
                    },
                    "sink": {
                        "type": "AzureDataLakeStoreSink"
                    },
                    "enableStaging": false,
                    "dataIntegrationUnits": 0
                },
                "inputs": [
                    {
                        "referenceName": "table1",
                        "type": "DatasetReference"
                    }
                ],
                "outputs": [
                    {
                        "referenceName": "sink1",
                        "type": "DatasetReference"
                    }
                ]
            }
        ]
    }
}

table1.json

{
    "name": "table1",
    "properties": {
        "linkedServiceName": {
            "referenceName": "SqlServer1",
            "type": "LinkedServiceReference"
        },
        "type": "SqlServerTable",
        "typeProperties": {
            "tableName": "sys.tables"
        }
    }
}

sink1.json

{
    "name": "sink1",
    "properties": {
        "linkedServiceName": {
            "referenceName": "AzureDataLakeStore1",
            "type": "LinkedServiceReference"
        },
        "type": "AzureDataLakeStoreFile",
        "structure": [
            {
                "name": "col1",
                "type": "String"
            }
        ],
        "typeProperties": {
            "format": {
                "type": "TextFormat",
                "columnDelimiter": ",",
                "rowDelimiter": "",
                "nullValue": "\\N",
                "treatEmptyAsNull": true,
                "skipLineCount": 0,
                "firstRowAsHeader": true
            },
            "fileName": "sink1.txt",
            "folderPath": "myDir"
        }
    }
}

编辑2:进行的测试摘要

  • SQL - > ADLS错误
  • Oracle - > ADLS错误
  • SQL - > Blob OK
  • Oracle - > Blob OK
  • SQL - > SQL OK
  • ADLS - > ADLS好的
  • AzureSQLDB - > ADLS好的

您的自托管IR是否具有某些代理设置或通过特殊的网络设置? 当ADF的ADLS连接器尝试与ADLS服务通信时,此类错误应由中间代理服务引起。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM