簡體   English   中英

從本地Linux解壓縮文件到HDFS時出錯

[英]Error while decompress a file from Local Linux to HDFS

此命令在本地linux上運行良好

gzip -d omega_data_path_2016-08-10.csv.gz

我想將擴展名為.csv.gz的文件解壓縮到HDFS位置。

我嘗試了以下命令,但出現此錯誤

 [cloudera@client08 localinputfiles]$ gzip -d omega_data_path_2016-08-10.csv.gz | hadoop dfs -put /user/cloudera/inputfiles/
gzip: omega_data_path_2016-08-10.csv already exists; do you wish to overwrite (y or n)? DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.

put: `/user/cloudera/inputfiles/': No such file or directory

有人可以幫我解決這個問題嗎?

要使gzip將輸出寫在標准輸出上,請使用-c標志。

所以命令是

gzip -dc omega_data_path_2016-08-10.csv.gz | hdfs dfs -put - /user/cloudera/omega_data_path_2016-08-10.csv

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM