[英]How to sort only one column within a spark dataframe using pyspark?
我有一个像这样的 Spark 数据框:
| time | col1 | col2 |
|----------------------|
| 123456 | 2 | A |
| 123457 | 4 | B |
| 123458 | 7 | C |
| 123459 | 5 | D |
| 123460 | 3 | E |
| 123461 | 1 | F |
| 123462 | 9 | G |
| 123463 | 8 | H |
| 123464 | 6 | I |
现在我需要对“col1” - 列进行排序,但其他列必须保持相同的顺序:(使用 pyspark)
| time | col1 | col2 | col1_sorted |
|-----------------------------------|
| same | same | same | sorted |
|-----------------------------------|
| 123456 | 2 | A | 1 |
| 123457 | 4 | B | 2 |
| 123458 | 7 | C | 3 |
| 123459 | 5 | D | 4 |
| 123460 | 3 | E | 5 |
| 123461 | 1 | F | 6 |
| 123462 | 9 | G | 7 |
| 123463 | 8 | H | 8 |
| 123464 | 6 | I | 9 |
在此先感谢您的帮助!
对于Spark 2.3.1 ,您可以尝试pandas_udf ,见下文(假设原始数据帧按time
列排序)
from pyspark.sql.functions import pandas_udf, PandasUDFType
from pyspark.sql.types import StructType
schema = StructType.fromJson(df.schema.jsonValue()).add('col1_sorted', 'integer')
@pandas_udf(schema, PandasUDFType.GROUPED_MAP)
def get_col1_sorted(pdf):
return pdf.sort_values(['time']).assign(col1_sorted=sorted(pdf["col1"]))
df.groupby().apply(get_col1_sorted).show()
+------+----+----+-----------+
| time|col1|col2|col1_sorted|
+------+----+----+-----------+
|123456| 2| A| 1|
|123457| 4| B| 2|
|123458| 7| C| 3|
|123459| 5| D| 4|
|123460| 3| E| 5|
|123461| 1| F| 6|
|123462| 9| G| 7|
|123463| 8| H| 8|
|123464| 6| I| 9|
+------+----+----+-----------+
假设 df 是具有实际值的数据帧:
import copy
df_schema = copy.deepcopy(df.schema)
new_df = X.rdd.zipWithIndex().toDF(df_schema)
new_df = new_df.orderBy("col1")
df = df.withColumn("col1_sorted", new_df["col1"])
df.show()
我自己的解决方案如下:
首先使用 col1 选择并按 col1 排序的 df 副本:
df_copy = df.select("col1").orderBy("col1")
第二个索引两个数据帧:(df_copy 相同,仅使用窗口 orderBy("col1"))
w = Window.orderBy("time").rowsBetween(-sys.maxsize, 0)
df = df\
.withColumn("helper", lit(1))\
.withColumn("index", lit(0))\
.withColumn("index", F.col("index")+F.sum(F.col("helper")).over(w))
最后一步,将 col1 重命名为 col1_sorted 并加入数据帧
df_copy = df_copy.withColumnRenamed("col1", "col1_sorted")
df = df.join(df_copy, df.index == df_copy.index, how="inner")
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.