[英]Multiple directories as Input format in hadoop map reduce
我正在尝试使用hadoop在分布式系统中运行图形验证程序。 我有以下格式的输入:
directory1中
---file1.dot
---file2.dot
... ..
---filen.dot
Directory2
---file1.dot
---file2.dot
... ..
---filen.dot
Directory670
---file1.dot
---file2.dot
... ..
---filen.dot
.dot文件是存储图形的文件。
对我而言,使用FileInputFormat.addInputPath()
添加输入目录路径是否足够?
我希望hadoop处理同一节点中每个目录的内容,因为每个目录中存在的文件都包含取决于同一目录中其他文件是否存在的数据。
hadoop框架是否会负责将目录平均分配给群集的各个节点(例如,目录1到node1,目录2到node2 ....等等)并并行处理?
每个目录中的文件相互依赖的数据(准确地说是...
因此,我的验证程序将遍历main.dot中存在的图形的每个顶点,在同一目录中搜索相同名称的文件,如果找到,则处理该文件中的数据。
类似地,将处理所有文件,并显示目录中每个文件处理后的组合输出,
其余目录使用相同的步骤。)
简而言之,就像在著名的单词计数应用程序中一样(如果输入是一本书),hadoop将拆分输入并将任务分配给群集中的每个节点,在该节点中,映射器处理每一行并计算相关单词。 我如何在这里拆分任务(我是否需要拆分?)
在这种情况下,我如何利用hadoop的功能,一些示例代码模板肯定会有所帮助:)
Alexey Shestakov给出的解决方案将起作用。 但是它没有利用MapReduce的分布式处理框架。 可能只有一个映射过程会读取该文件(包含所有输入文件路径的文件),然后处理输入数据。 我们如何将目录中的所有文件分配给一个映射器,以使映射器的数量等于目录的数量? 一种解决方案是使用“ org.apache.hadoop.mapred.lib.MultipleInputs”类。 使用MultipleInputs.addInputPath()为每个目录路径添加目录和映射类。 现在,每个映射器都可以获取一个目录并处理其中的所有文件。
您可以创建一个包含所有要处理目录的文件:
/path/to/directory1
/path/to/directory2
/path/to/directory3
每个映射器将处理一个目录,例如:
@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
FileSystem fs = FileSystem.get(context.getConfiguration());
for (FileStatus status : fs.listStatus(new Path(value.toString()))) {
// process file
}
}
hadoop框架是否会负责将目录平均分配给群集的各个节点(例如,目录1到node1,目录2到node2 ....等等)并并行处理?
不,不会。 从文件复制到要处理的节点的意义上说,文件未分发到每个节点。 相反,简单地说,每个节点都具有一组要处理的文件路径,而不能保证位置或数据的局部性。 然后,datanode从HDFS中提取该文件并进行处理。
没有理由不能只从HDFS直接打开可能需要的其他文件。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.