[英]Apache Spark installation with Java Error
(見我上面的評論,但這是我的答案)
由於 Spark 依賴於 Scala(但您不必自己使用 Scala),因此您依賴於 Scala 使用的 JVM版本,在您的情況下是 Java 8 或 11,而不是 17。
查看https://spark.apache.org/docs/latest/了解更多詳情。
安裝 Java 8 或 11,將 JAVA_HOME 指向正確的目錄,然后再次運行 Spark。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.