繁体   English   中英

火花提交和火花壳不起作用

[英]spark-submit & spark-shell not working

编辑:我认为是因为我安装了Java 10而不是Java 8,所以我会尽快进行补救,看看它是否可以解决问题。 另外,如果我使用Git Bash,使用Java 8仍然会出现此错误,但是如果使用CMD,则不会出现此错误。

我一直在尝试在IntelliJ之外的本地运行Spark程序(在该程序运行正常)。 但是,当我在终端中使用spark-submit运行它时,发生的一切是打印了命令的更详细的版本。

(从Main类所在的目录运行(尽管我也尝试过详细说明其目录),但是即使我在未指定类的情况下运行它,也没有任何反应)。

例如

    > spark-submit --class Main --master local[4] path-to-jar.jar

输出:

    "C:\Program Files\Java\jdk-10.0.1\bin\java" -cp "C:\...\spark-2.3.1-bin-hadoop2.7/conf\;C:\...\spark-2.3.1-bin-hadoop2.7\jars\*" -Xmx1g org.apache.spark.deploy.SparkSubmit --class Main " --master" local[4] " path-to-jar.jar"

椭圆只是路径的一部分。

我找不到此错误的任何原因-我正在关注Spark文档。 不过,我对Spark不太熟悉。 有任何想法吗?

也可能与该问题有关:当我在cmd中仅运行“ spark-shell”时,它也只打印了spark-shell的路径。 如果我运行“ spark-shell.cmd”,则会收到错误提示

    Failed to initialize compiler: object java.lang.Object in compiler mirror not found.

除其他事项外。

需要检查一些事情:1.检查环境变量是否设置正确,变量如下:-HADOOP_HOME,JAVA_HOME,SPARK_HOME,WinUtils.exe 2.如果运行的是Java 10,请卸载Java 10并安装Java版本“ 1.8.0_144”

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM