[英]Combine pivoted and aggregated column in PySpark Dataframe
我的问题与此有关。 我有一个名为df
的PySpark DataFrame,如下所示。
date | recipe | percent | volume
----------------------------------------
2019-01-01 | A | 0.03 | 53
2019-01-01 | A | 0.02 | 55
2019-01-01 | B | 0.05 | 60
2019-01-02 | A | 0.11 | 75
2019-01-02 | B | 0.06 | 64
2019-01-02 | B | 0.08 | 66
如果我将其放在recipe
并汇总percent
和volume
,则会得到将recipe
和汇总变量连接起来的列名。 我可以使用alias
进行清理。 例如:
df.groupBy('date').pivot('recipe').agg(avg('percent').alias('percent'), avg('volume').alias('volume')).show()
date | A_percent | A_volume | B_percent | B_volume
--------------------------------------------------------
2019-01-01 | 0.025 | 54 | 0.05 | 60
2019-01-02 | 0.11 | 75 | 0.07 | 65
但是,如果我只聚合一个变量,例如percent
,则列名不包括聚合变量:
df.groupBy('date').pivot('recipe').agg(avg('percent').alias('percent')).show()
date | A | B
-------------------------
2019-01-01 | 0.025 | 0.05
2019-01-02 | 0.11 | 0.07
当agg
函数中只有一个变量时,如何设置它以包括串联名称?
根据Spark的源代码 ,它具有一个特殊的分支,用于通过单个聚合进行数据透视。
val singleAgg = aggregates.size == 1
def outputName(value: Expression, aggregate: Expression): String = {
val stringValue = value.name
if (singleAgg) {
stringValue <--- Here
}
else {
val suffix = {...}
stringValue + "_" + suffix
}
}
我不知道原因,但是剩下的唯一选择是列重命名。
这是重命名的简化版本:
def rename(identity: Set[String], suffix: String)(df: DataFrame): DataFrame = {
val fieldNames = df.schema.fields.map(filed => filed.name)
val renamed = fieldNames.map(fieldName => {
if (identity.contains(fieldName)) {
fieldName
} else {
fieldName + suffix
}} )
df.toDF(renamed:_*)
}
用法:
rename(Set("date"), "_percent")(pivoted).show()
+----------+---------+---------+
| date|A_percent|B_percent|
+----------+---------+---------+
|2019-01-01| 0.025| 0.05|
|2019-01-02| 0.11| 0.06|
+----------+---------+---------+
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.