繁体   English   中英

从测试hadoop mapreduce字数统计中获取的不是有效的JAR

[英]Not a valid JAR from testing hadoop mapreduce wordcount

Hadoop Mapreduce的新手,我不确定为什么会收到此错误。

我目前正在:

Not a valid JAR: /nfsdata/DSCluster/home/user/bli1/wordcount/wc.jar

这是我的过程:

HDFS文件结构:

   /bli1
      /wordcount
         wc.jar
         WordCount.java
         /input
            file01
         /output
            file02
  1. 使用jar cf wc.jar WordCount.java在本地计算机WordCount.javawc.jar上创建
  2. 在本地计算机上创建file01file02
  3. 在hdfs的/wordcount中创建/input/output目录
  4. 使用hdfs将文件移至其目录

    • hdfs dfs -moveFromLocal <localsrc> <dst>
  5. 运行命令:

    hadoop jar /user/bli1/wordcount/wc.jar WordCount / user / bli1 / wordcount / input / user / bli1 / wordcount / output

OUTPUT:

Not a valid JAR: /user/bli1/wordcount/wc.jar

我尝试这样做来制作JAR,但会收到错误消息。

$ hadoop com.sun.tools.javac.Main WordCount.java
Error: Could not find or load main class com.sun.tools.javac.Main

如果此制作JAR的过程与jar cf wc.jar WordCount.java则可能是造成此问题的原因。 但是我不知道为什么我得到find or load main class error

Liondancer,必须在Java jar文件中添加已编译的* .class文件,而不是源* .java文件。

此外,一旦解决了问题,我认为Hadoop最有可能会抱怨输出目录的存在。 我的意思是,Hadoop将期望自己创建一个这样的输出目录,该目录必须不存在。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM