![](/img/trans.png)
[英]Getting error while copying the file from linux Local file system to HDFS
[英]Error while decompress a file from Local Linux to HDFS
此命令在本地linux上運行良好
gzip -d omega_data_path_2016-08-10.csv.gz
我想將擴展名為.csv.gz的文件解壓縮到HDFS位置。
我嘗試了以下命令,但出現此錯誤
[cloudera@client08 localinputfiles]$ gzip -d omega_data_path_2016-08-10.csv.gz | hadoop dfs -put /user/cloudera/inputfiles/
gzip: omega_data_path_2016-08-10.csv already exists; do you wish to overwrite (y or n)? DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.
put: `/user/cloudera/inputfiles/': No such file or directory
有人可以幫我解決這個問題嗎?
要使gzip
將輸出寫在標准輸出上,請使用-c
標志。
所以命令是
gzip -dc omega_data_path_2016-08-10.csv.gz | hdfs dfs -put - /user/cloudera/omega_data_path_2016-08-10.csv
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.