簡體   English   中英

想法sbt java.lang.NoClassDefFoundError:org / apache / spark / SparkConf

[英]idea sbt java.lang.NoClassDefFoundError: org/apache/spark/SparkConf

我是spark的初學者。我構建了一個環境使用“linux + idea + sbt”,當我嘗試Spark的快速啟動時,我遇到了問題:

    Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf
    at test$.main(test.scala:11)
    at test.main(test.scala)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at com.intellij.rt.execution.application.AppMain.main(AppMain.java:144)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.SparkConf
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    ... 7 more

我的磁盤中的版本:

sbt   = 0.13.11
jdk   = 1.8
scala = 2.10
idea  = 2016

我的目錄結構:

test/
  idea/
  out/
  project/
    build.properties    
    plugins.sbt
  src/
    main/
      java/
      resources/
      scala/
      scala-2.10/
        test.scala
  target/
  assembly.sbt
  build.sbt

在build.properties中:

sbt.version = 0.13.8

在plugins.sbt中:

logLevel := Level.Warn

addSbtPlugin("com.github.mpeltonen" % "sbt-idea" % "1.6.0")

addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.11.2")

在build.sbt中:

import sbt._
import Keys._
import sbtassembly.Plugin._
import AssemblyKeys._

name := "test"

version := "1.0"

scalaVersion := "2.10.4"

libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1" % "provided"

在assembly.sbt中:

import AssemblyKeys._ // put this at the top of the file

assemblySettings

在test.scala中:

import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object test {
  def main(args: Array[String]) {
    val logFile = "/opt/spark-1.6.1-bin-hadoop2.6/README.md" // Should be some file on your system
    val conf = new SparkConf().setAppName("Test Application")
    val sc = new SparkContext(conf)
    val logData = sc.textFile(logFile, 2).cache()
    val numAs = logData.filter(line => line.contains("a")).count()
    val numBs = logData.filter(line => line.contains("b")).count()
    println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
  }
}

我怎么解決這個問題。

具有"provided"范圍的依賴關系僅在編譯和測試期間可用,並且在運行時或包裝時不可用。 因此,不應使用main進行對象test ,而應將其設置為放置在src/test/scala的實際測試套件(如果您不熟悉Scala中的單元測試,我建議使用ScalaTest,例如。首先在build.sbt中添加一個依賴項: libraryDependencies += "org.scalatest" %% "scalatest" % "2.2.4" % Test然后轉到這個快速 libraryDependencies += "org.scalatest" %% "scalatest" % "2.2.4" % Test 教程來實現一個簡單的規范。


另一種選擇,在我看來相當hacky(但仍然是技巧),涉及在某些配置中從你的spark-core依賴中刪除provided范圍,並在此問題的接受答案中描述。

在intelliJ版本2018.1中,運行配置中有一個名為“包含依賴關系”的復選框,其中包含“范圍”。 選中此選項可以解決這個問題。

我今天早上遇到了同樣的錯誤,提供了錯誤。 我刪除了“提供”並運行sbt clean,reload,compile,package,run。 我還使用命令行中的spark-submit進行測試。 但我認為“提供”,代碼的額外開銷,jar更少。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM