[英]How do I move a file from local to HDFS in Python?
我有一个脚本来检查目录中的文件。 如果存在正确的文件(带有关键字),我要将那个/那些文件移动到HDFS位置。
import os
tRoot = "/tmp/mike"
keyword = "test"
for root, dirs, files in os.walk(tRoot):
for file in files:
if keyword in file:
fullPath = str(os.path.join(root, file))
subprocess.call(['hdfs', 'dfs', '-copyFromLocal','/tmp/mike/test*','hdfs:///user/edwaeadt/app'], shell=True)
我看到以下错误:
Usage: hdfs [--config confdir] [--loglevel loglevel] COMMAND
我也尝试过
subprocess.call(['hadoop', 'fs', '-copyFromLocal', '/tmp/mike/test*', 'hdfs:///user/edwaeadt/app'], shell=True)
但我看到
Usage: hadoop [--config confdir] [COMMAND | CLASSNAME]
CLASSNAME
此外,似乎此循环正在运行3次。 因为我现在看到文件移到了hdfs位置,但是我还两次看到文件存在的位置。 好像这个copyFromLocal正在运行3次。 有任何想法吗?
如果您打算使用subprocess和shell = True,那么您的命令应显示为
subprocess.call(['hadoop fs -copyFromLocal /tmp/mike/test* hdfs:///user/edwaeadt/app'], shell=True)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.