[英]Spark + scala new pipline for StringIndexer multiple columns
我尝试在多列上应用StringIndexer()
,我使用Scala和Spark 2.3。
这是我的代码:
val df1 = spark.read.format("csv").option("header", "true").option("inferSchema", "true").load("file:///c:/tmp/spark-warehouse/train.csv")
val feat = df1.columns.filterNot(_ .contains("BsmtFinSF1"))
val inds = feat.map { colName =>
val indexer1 = new StringIndexer()
.setInputCol(colName)
.setOutputCol(colName + "I")
.fit(df1)
Array(indexer1)
}
val pipeline = new Pipeline().setStages(inds.toArray)
但是,我有这个错误:
错误:(134, 50) 类型不匹配;
发现:数组[数组[org.apache.spark.ml.feature.StringIndexerModel]]
要求:数组[? <:org.apache.spark.ml.PipelineStage]注意:数组[org.apache.spark.ml.feature.StringIndexerModel] >: ? <: org.apache.spark.ml.PipelineStage,但类 Array 在类型 T 中是不变的。您可能希望研究通配符类型,例如
_ >: ? <: org.apache.spark.ml.PipelineStage
_ >: ? <: org.apache.spark.ml.PipelineStage
。 (SLS 3.2.10)
val 管道 = new Pipeline().setStages(inds.toArray)
任何帮助将不胜感激。 谢谢你
.setStages
需要一个Array[PipelineStage]
,但实际上它变成了Array[Array[PipelineStage]
因为您将indexer1
包装到冗余 Array 中: Array(indexer1)
。 Map 函数返回相同类型的集合。 此集合的元素由传递给 Map 的函数的应用程序产生。 所以试试这样:
val inds = feat.map { colName =>
new StringIndexer()
.setInputCol(colName)
.setOutputCol(colName + "I")
.fit(df1)
}
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.