[英]Compilation Error with Spark cassandra connector
我尝试使用CassandraConnector将scala映射到scala bean上,如下所示:
object AttachBookingToEventSparkJob {
def main(args: Array[String]): Unit = {
val conf = new SparkConf(true).setAppName(appName)
val sc = new SparkContext(conf)
val jobParameterTable = sc.cassandraTable[SparkJobMapper](keyspace, JOB_TABLE_NAME)
}
case class SparkJobMapper(val col1: String, val col2:String)
}
有用。
但是,如果我尝试外部化类SparkJobMapper (在同一软件包中), 则会出现以下错误:
error: No RowReaderFactory can be found for this type
[INFO] val jobParameterTable = sc.cassandraTable[SparkJobMapper]
(keyspace, JOB_TABLE_NAME)
有什么主意吗?
好的,那是一个愚蠢的错误。 忘记在类声明中添加case关键字。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.