繁体   English   中英

如何使用python将文件保存在hadoop中

[英]How to save file in hadoop with python

我正在尝试使用python 2.7将文件保存在Hadoop中。 我在互联网上搜索。 我有一些代码可以将文件保存在Hadoop中,但是在保存时会占用整个文件夹(文件夹中的所有文件都保存在Hadoop中)。 但是我需要保存一个特定的文件。

以下是在Hadoop中保存文件夹的链接: http : //www.hadoopy.com/en/latest/tutorial.html#putting-data-on-hdfs

现在,我需要在Hadoop中保存一个特定文件,例如abc.txt

这是我的代码:

import hadoopy
hdfs_path = 'hdfs://192.168.x.xxx:xxxx/video/py5'
def main():
   local_path = open('abc.txt').read()
   hadoopy.writetb(hdfs_path, local_path)


if __name__ == '__main__':
    main()

在这里,我need more than one value to unpack

任何帮助,将不胜感激。

hadoopy.writetb似乎希望将两个值的可迭代值作为其第二个参数。 尝试:

hadoopy.writetb(hdfs_path, [("abc.txt", open("abc.txt").read())])

http://www.hadoopy.com/en/latest/api.html?highlight=hadoopy.writetb#hadoopy.writetb

writedb需要第二个arg作为kvs –(键,值)的迭代器

按照您给出的链接,您已经忘记在代码中复制函数read_local_dir

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM