繁体   English   中英

找不到org.apache.spark.sql.types.SQLUserDefinedType类-继续存根

[英]Class org.apache.spark.sql.types.SQLUserDefinedType not found - continuing with a stub

我有一个基本的spark mllib程序,如下所示。

import org.apache.spark.mllib.clustering.KMeans

import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
import org.apache.spark.mllib.linalg.Vectors


class Sample {
  val conf = new SparkConf().setAppName("helloApp").setMaster("local")
  val sc = new SparkContext(conf)
  val data = sc.textFile("data/mllib/kmeans_data.txt")
  val parsedData = data.map(s => Vectors.dense(s.split(' ').map(_.toDouble))).cache()

  // Cluster the data into two classes using KMeans
  val numClusters = 2
  val numIterations = 20
  val clusters = KMeans.train(parsedData, numClusters, numIterations)

  // Export to PMML
  println("PMML Model:\n" + clusters.toPMML)
}

我已经通过intellij手动将spark-corespark-mllibspark-sql到项目类路径,所有版本均为1.5.0。

运行程序时出现以下错误? 知道有什么问题吗?

错误:scalac:加载Vector时出错,缺少依赖项'错误的符号引用。 Vector.class中的签名是指软件包org.apache.spark.sql中不可用的术语类型。 当前类路径可能会完全丢失它,或者类路径上的版本可能与/home/fazlann/Downloads/spark-mllib_2.10-1.5.0要求的Vector.class编译时使用的版本不兼容。 jar(org / apache / spark / mllib / linalg / Vector.class

DesirePRG。 我遇到了和你一样的问题。 解决方案是导入一些组装spark和hadoop的jar,例如spark-assembly-1.4.1-hadoop2.4.0.jar ,然后它可以正常工作。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM