[英]value collectAsMap is not a member of org.apache.spark.rdd.RDD
我正在尝试在以下语句中使用collectAsMap()
:
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.broadcast.Broadcast
import org.apache.spark.rdd.RDD
...
documents_input.
filter(_ != documents_header).
map(_.split(",")).
map(Document.parse(_)).
keyBy((_.id)).collectAsMap()
但是我收到以下错误:
value collectAsMap is not a member of org.apache.spark.rdd.RDD[(Int, `com.codependent.MyApp.Document)]`
知道为什么或如何将Array变成Map吗?
在更新导入后已修复,如Ram Ghadiyaram建议的那样:
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.broadcast.Broadcast
import org.apache.spark.rdd.RDD
这取决于您如何阅读documents_input
。 如果使用sparkContext
阅读它,则应该可以使用collectAsMap
。 但是,如果您已将documents_input
阅读为Source
或任何其他scala api
那么collectAsMap
将collectAsMap
。 在这种情况下,您可以使用toMap
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.