簡體   English   中英

java.lang.NoClassDefFoundError:從Scala運行JAR時

[英]java.lang.NoClassDefFoundError : while running JAR from Scala

我有一個Scala項目,到目前為止我已經使用sbt軟件包來構建和運行該項目。 現在,我需要將它們移植到另一台計算機上。 因此,我可以看到JAR文件是在

$PROJECT_HOME/target/scala-2.9.3/My-app_2.9.3-1.0.jar

但是,當我嘗試使用來運行它們時,

java -jar target/scala-2.9.3/My-app_2.9.3-1.0.jar

錯誤消息是這樣的,

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkContext
    at java.lang.Class.getDeclaredMethods0(Native Method)
    at java.lang.Class.privateGetDeclaredMethods(Class.java:2451)
    at java.lang.Class.getMethod0(Class.java:2694)
    at java.lang.Class.getMethod(Class.java:1622)
    at sun.launcher.LauncherHelper.getMainMethod(LauncherHelper.java:494)
    at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:486)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.SparkContext
    at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
    at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
    at java.security.AccessController.doPrivileged(Native Method)
    at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:423)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:356)

我收到java.lang.NoClassDefFoundError:org / apache / spark / SparkContext異常。 我知道,如果JAR找不到/加載該類的定義,通常會發生NoClassDefFoundError。 但是在我的sbt中,我包括了這些類,

name := "My App"

version := "1.0"

scalaVersion := "2.9.3"

libraryDependencies += "org.apache.spark" %% "spark-core" % "0.8.0-incubating"

關於錯誤原因的任何指示將不勝感激? 謝謝!

您必須構建包含所有依賴項的胖子 jar(在您的情況下為spark),或者手動將spark工件添加到類路徑。 在第一種情況下,您可能必須對sbt使用onejar或sbt-assembly插件。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM