簡體   English   中英

spark-shell在Apache spark中引發錯誤

[英]spark-shell throws error in Apache spark

我已經安裝上的虛擬盒Ubuntu的(主機操作系統Windows 7)。我也安裝了Apache的火花,配置Hadoop的SPARK_HOME.bashrc並添加HADOOP_CONF_DIRspark-env.sh 現在,當我啟動spark-shell它將引發錯誤,並且不初始化spark上下文,sql上下文。 我是否在安裝中缺少某些東西,並且也想在群集上運行(設置了hadoop 3節點群集)。

嘗試在Windows 7上安裝Spark local時遇到相同的問題。請確保以下路徑正確,並且我確定會與您一起工作。 我在此鏈接中回答了同樣的問題,因此,您可以按照以下說明進行操作。

  • 創建JAVA_HOME變量:C:\\ Program Files \\ Java \\ jdk1.8.0_181 \\ bin
  • 將以下部分添加到您的路徑:;%JAVA_HOME%\\ bin
  • 創建SPARK_HOME變量:C:\\ spark-2.3.0-bin-hadoop2.7 \\ bin
  • 將以下部分添加到您的路徑:;%SPARK_HOME%\\ bin
  • Hadoop路徑中最重要的部分應在winutils.ee之前包含bin文件,如下所示:C:\\ Hadoop \\ bin確保在該路徑中找到winutils.exe。
  • 創建HADOOP_HOME變量:C:\\ Hadoop
  • 將以下部分添加到您的路徑:;%HADOOP_HOME%\\ bin

現在您可以運行cmd並編寫spark-shell它將起作用。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM