[英]how to add new column to spark dataframe depend on multipme existing column?
我将向数据框添加新列。 例如,我有一个数据框df
id|c_1 |c_2 |c_3 |c_4 |.......|c_200 |c_tot
1 |[1,2,3,5] |[t,4,bv,55,2]|[] |[1,22] | |[k,v,c,x]|[1,2,3,4,5,t,bv,55,22,k,v,c,x]
2 |[1,2,4] |[4,3,8] |[6,7] |[10,12] | [11] |[1,2,3,4,6,7,8,10,11,12]
.
.
我想从我的数据框中获取一些统计信息,例如,我想要一个包含每个id的熵的新列,因此我们必须为每个c_i计算pi,然后计算熵
pi=(size(c_i)+1))/(size(c_tot)+1)
Entropy=-sum(pi*ln(pi)) \\i in[1,200]
例如,对于新列的第一个值,熵必须为
entropy=-((5/14*ln(5/14))+(6/14*ln(6/14))+(1/14*ln(1/14)).... +(5/14)*ln(5/14))
我知道我可以使用表达式链接,但是由于我有多个列,所以找不到表达式的想法。
您的表达可以稍微简化为:
在Scala中生成该代码:
entropy = (1 to 200).toSeq
.map(c => s" ( size(c_$c) + 1 ) * ln( (size(c_$c) + 1) / (size(c_tot) + 1) ) ")
.mkString("-(" , "+" , ") / size(c_tot) ")
然后与expr
df.withColumn("entropy" , expr(entropy) )
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.