繁体   English   中英

题为scala错误的intellij想法:import org.apache.spark。{SparkContext,SparkConf}

[英]intellij idea with scala error on : import org.apache.spark.{SparkContext, SparkConf}

我正在使用具有scala集成的智能想法(如eclipse),我创建了一个scala sbt项目,使用了spark 1.4.0和scala 2.11.6,但在输入org.apache.spark时遇到了错误。{SparkContext,SparkConf }

文件buid.sbt包含以下代码:

名称:=“简单”

版本:=“ 1.0”

scalaVersion:=“ 2.11.6”

libraryDependencies + =“ org.apache.spark”%“ spark-core_2.10”%“ 1.4.0”

当我使用maven来构建Java应用程序时,我没有问题,只是问题是当我尝试使用intellij想法用sbt构建scala应用程序时

您的scala版本和spark scala版本错误。 更改您的火花依赖:

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.4.0"

您不能将Spark-core_2.10与Scala 2.11.6版一起使用。

2.10和2.11不二进制兼容。

您可能需要spark-core_2.11

也许您需要阅读以下内容: https : //github.com/mpeltonen/sbt-idea 您需要在配置plugins.sbt和build.sbt之后运行sbt gen-idea

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM