[英]Spark - SQL : value implicits is not a member of org.apache.spark.sql.SQLContext
[英]which jar needed for org.apache.spark.sql.SQLContext in eclipse for scala
我正在使用下面的代碼。
import org.apache.spark.SparkContext
import org.apache.spark.sql.SQLContext
object SqlContextSparkScala {
def main (args: Array[String]) {
val sc =SparkContext
val sqlcontext = new SQLContext(sc)
}
}
我收到錯誤消息,例如spark不是org.apache的成員。 我正在eclipse IDE中編寫此Java代碼。請建議適當的jar。
請包含spark-core_2.10-1.4.1.jar
如果您正在使用Maven,請包括以下提到的依賴項
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.4.1</version>
</dependency>
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.