[英]Not a valid JAR from testing hadoop mapreduce wordcount
Hadoop Mapreduce的新手,我不确定为什么会收到此错误。
我目前正在:
Not a valid JAR: /nfsdata/DSCluster/home/user/bli1/wordcount/wc.jar
这是我的过程:
HDFS文件结构:
/bli1
/wordcount
wc.jar
WordCount.java
/input
file01
/output
file02
jar cf wc.jar WordCount.java
在本地计算机WordCount.java
和wc.jar
上创建 file01
和file02
/wordcount
中创建/input
和/output
目录 使用hdfs将文件移至其目录
hdfs dfs -moveFromLocal <localsrc> <dst>
运行命令:
hadoop jar /user/bli1/wordcount/wc.jar WordCount / user / bli1 / wordcount / input / user / bli1 / wordcount / output
OUTPUT:
Not a valid JAR: /user/bli1/wordcount/wc.jar
我尝试这样做来制作JAR,但会收到错误消息。
$ hadoop com.sun.tools.javac.Main WordCount.java
Error: Could not find or load main class com.sun.tools.javac.Main
如果此制作JAR的过程与jar cf wc.jar WordCount.java
则可能是造成此问题的原因。 但是我不知道为什么我得到find or load main class error
Liondancer,必须在Java jar文件中添加已编译的* .class文件,而不是源* .java文件。
此外,一旦解决了问题,我认为Hadoop最有可能会抱怨输出目录的存在。 我的意思是,Hadoop将期望自己创建一个这样的输出目录,该目录必须不存在。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.