[英]apache spark2.3.0 when launched with master as yarn, fails with error Could not find or load main class org.apache.spark.deploy.yarn.ApplicationMaster
[英]Spark YARN Cluster mode get this error “Could not find or load main class org.apache.spark.deploy.yarn.ApplicationMaster”
我的这项工作在YARN客户端模式下运行良好,但是在群集模式下,出现以下错误。
日志内容:错误:找不到或加载主类org.apache.spark.deploy.yarn.ApplicationMaster LogType结尾:stderr
我尚未设置spark.yarn.jars或spark.yarn.archive。 但是,在跟踪中,我确实看到火花纱罐正在上载。 这里是否需要其他设置?
16/11/01 10:49:49 INFO yarn.Client:正在上载资源文件:/etc/security/keytabs/spark.keytab-> hdfs:// beixvz579:8020 / user / sifsuser / .sparkStaging / application_1477668405073_0026 / spark。 keytab 16/11/01 10:49:50 INFO yarn.Client:上传资源文件:/home/sifsuser/spark200/jars/spark-yarn_2.11-2.0.0.jar-> hdfs:// beixvz579:8020 / user / sifsuser / .sparkStaging / application_1477668405073_0026 / spark-yarn_2.11-2.0.0.jar 16/11/01 10:49:50 INFO yarn.Client:上传资源文件:/home/sifsuser/lib/sparkprogs.jar- > hdfs:// beixvz579:8020 / user / sifsuser / .sparkStaging / application_1477668405073_0026 / sparkprogs.jar
该罐子是spark-yarn_2.11-2.4.0.jar(我的版本),其位置是$ SPARK_HOME / jars /
第一步:(将其添加到spark-default.conf中)
spark.yarn.jars hdfs://hadoop-node1:9000/spark/jars/*
第二步:
hadoop fs -put $SPARK_HOME/jars/* hdfs://hadoop-node1:9000/spark/jars/
经过大量调试后,我发现此错误是由于缺少ApplicationMaster依赖的类而引发的。 在我的情况下,这是AM类所依赖的日志记录jar之一。 添加其他jar之后,我现在可以提交作业。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.