![](/img/trans.png)
[英]PySpark DataFrame - Create a column from another dataframe
[英]Adding values from a dataframe to a column in another dataframe pyspark
如何将 dataframe A
B
的新列( sum
),其中包含给定的 dataframe A
对? 最好使用UDF?
output 应如下所示:
dataframe
|id|value|
|--|-----|
|1 | 10|
|2 | 0.3|
|3 | 100|
dataframe B:(添加列sum
)
|src|dst|sum |
|---|---|-----|
|1 |2 |10.3 |
|2 |3 |100.3|
|3 |1 |110 |
我试过这个
dfB = dfB.withColumn('sum', sum(dfB.source,dfB.dst,dfA))
def sum(src,dst,dfA):
return dfA.filter(dfA.id == src).collect()[0][1][0] + dfA.filter(dfA.id == dst).collect()[0][1][0]
如果dfA
足够小以进行广播连接,那么这应该可以工作:
dfB.join(dfA, how="left", on=F.col("src") == F.col("id")).select(
"src", "dst", F.coalesce(F.col("value"), F.lit(0)).alias("v1")
).join(dfA, how="left", on=F.col("src") == F.col("id")).select(
"src", "dst", (F.col("v1") + F.coalesce(F.col("value"), F.lit(0))).alias("sum")
)
如果 id 列包含每个 src 和 dst 值,则可以删除.coalesce()
。 有几种方法可以实现这一点,但最好的选择可能是使用.transform()
。
def join_sum(join_df):
def _(df):
return (
df.join(join_df, how="left", on=F.col("src") == F.col("id"))
.select("src", "dst", F.coalesce(F.col("value"), F.lit(0)).alias("v1"))
.join(join_df, how="left", on=F.col("src") == F.col("id"))
.select(
"src",
"dst",
(F.col("v1") + F.coalesce(F.col("value"), F.lit(0))).alias("sum"),
)
)
return _
dfB.transform(join_sum(dfA))
基本上,您需要在条件(id = src OR id = dst)
上加入 2 个数据帧,然后按分组对列value
求和:
from pyspark.sql import functions as F
output = df_a.join(
df_b,
(F.col("id") == F.col("src")) | (F.col("id") == F.col("dst"))
).groupBy("src", "dst").agg(F.sum("value").alias("sum"))
output.show()
#+---+---+-----+
#|src|dst| sum|
#+---+---+-----+
#| 2| 3|100.3|
#| 1| 2| 10.3|
#| 3| 1|110.0|
#+---+---+-----+
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.