簡體   English   中英

Spark - 錯誤:無法找到或加載主類org.apache.spark.launcher.Main

[英]Spark - Error: Could not find or load main class org.apache.spark.launcher.Main

我剛剛開始玩Spark,我已經在努力了。 我剛剛下載了Spark的spark-1.6.1-bin-hadoop2.4並嘗試打開PySpark Shell ./bin/pyspark但遺憾的是我提示如下:

Error: Could not find or load main class org.apache.spark.launcher.Main

環境:

  • Ubuntu 14.04.4 64位
  • Java版“1.8.0_77”
  • Python 2.7.6
  • Spark 1.6.1預構建Hadoop 2.4及更高版本

有什么線索如何解決這個問題?

它適用於Hadoop 2.4及更高版本的Spark 1.2.0預構建

請檢查機器上是否安裝了java並檢查lib目錄下的所有jar文件是否正常

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM