[英]java.lang.NoClassDefFoundError: org/apache/spark/sql/DataFrame
[英]idea sbt java.lang.NoClassDefFoundError: org/apache/spark/SparkConf
我是spark的初学者。我构建了一个环境使用“linux + idea + sbt”,当我尝试Spark的快速启动时,我遇到了问题:
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf
at test$.main(test.scala:11)
at test.main(test.scala)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at com.intellij.rt.execution.application.AppMain.main(AppMain.java:144)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.SparkConf
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 7 more
我的磁盘中的版本:
sbt = 0.13.11
jdk = 1.8
scala = 2.10
idea = 2016
我的目录结构:
test/
idea/
out/
project/
build.properties
plugins.sbt
src/
main/
java/
resources/
scala/
scala-2.10/
test.scala
target/
assembly.sbt
build.sbt
在build.properties中:
sbt.version = 0.13.8
在plugins.sbt中:
logLevel := Level.Warn
addSbtPlugin("com.github.mpeltonen" % "sbt-idea" % "1.6.0")
addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.11.2")
在build.sbt中:
import sbt._
import Keys._
import sbtassembly.Plugin._
import AssemblyKeys._
name := "test"
version := "1.0"
scalaVersion := "2.10.4"
libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1" % "provided"
在assembly.sbt中:
import AssemblyKeys._ // put this at the top of the file
assemblySettings
在test.scala中:
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object test {
def main(args: Array[String]) {
val logFile = "/opt/spark-1.6.1-bin-hadoop2.6/README.md" // Should be some file on your system
val conf = new SparkConf().setAppName("Test Application")
val sc = new SparkContext(conf)
val logData = sc.textFile(logFile, 2).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
}
}
我怎么解决这个问题。
具有"provided"
范围的依赖关系仅在编译和测试期间可用,并且在运行时或包装时不可用。 因此,不应使用main
进行对象test
,而应将其设置为放置在src/test/scala
的实际测试套件(如果您不熟悉Scala中的单元测试,我建议使用ScalaTest,例如。首先在build.sbt中添加一个依赖项: libraryDependencies += "org.scalatest" %% "scalatest" % "2.2.4" % Test
然后转到这个快速 libraryDependencies += "org.scalatest" %% "scalatest" % "2.2.4" % Test
教程来实现一个简单的规范。
另一种选择,在我看来相当hacky(但仍然是技巧),涉及在某些配置中从你的spark-core
依赖中删除provided
范围,并在此问题的接受答案中描述。
在intelliJ版本2018.1中,运行配置中有一个名为“包含依赖关系”的复选框,其中包含“范围”。 选中此选项可以解决这个问题。
我今天早上遇到了同样的错误,提供了错误。 我删除了“提供”并运行sbt clean,reload,compile,package,run。 我还使用命令行中的spark-submit进行测试。 但我认为“提供”,代码的额外开销,jar更少。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.