繁体   English   中英

在 Linux 上运行 Spark:$JAVA_HOME 未设置错误

[英]Running Spark on Linux : $JAVA_HOME not set error

我正在尝试在Ubuntu 16.04.1 LTS上配置spark-2.0.0-bin-hadoop2.7 我已经设定

export JAVA_HOME=/home/marc/jdk1.8.0_101
export SCALA_HOME=/home/marc/scala-2.11.8
export SPARK_HOME=/home/marc/spark-2.0.0-bin-hadoop2.7
export PATH=$PATH:$SCALA_HOME/bin:$JAVA_HOME/bin

.bashrc的末尾,也包含在来自 spark/sbin 文件夹的start-all.sh文件中

当我输入echo $JAVA_HOME它给了我正确的路径/home/marc/jdk1.8.0_101

但是当我调用sbin/start-all.sh

它给了我以下错误

本地主机:无法启动 org.apache.spark.deploy.worker.Worker:本地主机:JAVA_HOME 未设置

我试图关注类似的主题,但找不到问题的解决方案。 任何帮助将非常感激。

您需要修改“sbin”中名为“spark-config.sh”的文件。 在此文件中添加您的 JAVA_HOME ,然后一切都会好起来的。

请尝试在 spark_env.sh 文件中配置 JAVA_HOME。

尝试在您的计算机上安装 Java:

首先,检查它是否存在:

java -version

如果没有安装:

sudo apt-get update
sudo apt-get install openjdk-8-jdk

这应该可以解决问题。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM