简体   繁体   English

Sqoop + S3 + Parquet导致错误的FS错误

[英]Sqoop + S3 + Parquet results in Wrong FS error

When trying to import data to S3 in Parquet format using Sqoop, as follows: 尝试使用Sqoop以Parquet格式将数据导入S3时,如下所示:

bin/sqoop import --connect 'jdbc:[conn_string]' --table [table] --target-dir s3a://bucket-name/ --hive-drop-import-delims --as-parquetfile

... I get the following error: ...我收到以下错误:

ERROR tool.ImportTool: Imported Failed: Wrong FS: s3a://bucket-name/, expected: hdfs://localhost:9000

I have no problem importing non-parquet data or working with s3a directly through HDFS. 我没有问题,可以通过HDFS导入非镶木地板数据或直接使用s3a。 Seems like this issue , but it was supposedly fixed many versions ago. 似乎是这个问题 ,但据说它在许多版本之前已得到修复。

Sqoop以木地板格式导入当前不支持将s3作为目标目录,可以使用的解决方法是将数据导入hdfs,然后使用distcp将hdfs复制到s3

如果将S3用作目标目录,则Sqoop不支持导入到镶木地板文件。

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM