[英]Spark: Add column to dataframe conditionally
我正在尝试获取我的输入数据:
A B C
--------------
4 blah 2
2 3
56 foo 3
并根据 B 是否为空在末尾添加一列:
A B C D
--------------------
4 blah 2 1
2 3 0
56 foo 3 1
我可以通过将输入数据框注册为临时表,然后键入 SQL 查询来轻松完成此操作。
但我真的很想知道如何仅使用 Scala 方法来做到这一点,而不必在 Scala 中键入 SQL 查询。
我试过.withColumn
,但我不能.withColumn
做我想做的事。
尝试withColumn
与功能when
,如下所示:
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._ // for `toDF` and $""
import org.apache.spark.sql.functions._ // for `when`
val df = sc.parallelize(Seq((4, "blah", 2), (2, "", 3), (56, "foo", 3), (100, null, 5)))
.toDF("A", "B", "C")
val newDf = df.withColumn("D", when($"B".isNull or $"B" === "", 0).otherwise(1))
newDf.show()
显示
+---+----+---+---+
| A| B| C| D|
+---+----+---+---+
| 4|blah| 2| 1|
| 2| | 3| 0|
| 56| foo| 3| 1|
|100|null| 5| 0|
+---+----+---+---+
我添加了(100, null, 5)
行以测试isNull
情况。
我在Spark 1.6.0
尝试过此代码,但正如when
代码中所述,它适用于1.4.0
之后的版本。
不好,我错过了问题的一部分。
最好,最干净的方法是使用UDF
。 代码中的解释。
// create some example data...BY DataFrame
// note, third record has an empty string
case class Stuff(a:String,b:Int)
val d= sc.parallelize(Seq( ("a",1),("b",2),
("",3) ,("d",4)).map { x => Stuff(x._1,x._2) }).toDF
// now the good stuff.
import org.apache.spark.sql.functions.udf
// function that returns 0 is string empty
val func = udf( (s:String) => if(s.isEmpty) 0 else 1 )
// create new dataframe with added column named "notempty"
val r = d.select( $"a", $"b", func($"a").as("notempty") )
scala> r.show
+---+---+--------+
| a| b|notempty|
+---+---+--------+
| a| 1| 1111|
| b| 2| 1111|
| | 3| 0|
| d| 4| 1111|
+---+---+--------+
这样的事情怎么样?
val newDF = df.filter($"B" === "").take(1) match {
case Array() => df
case _ => df.withColumn("D", $"B" === "")
}
使用take(1)
应该最小
你可以使用类似下面的代码。
df.withColumn("active_status",when(datediff($"login_date",coalesce(lag($"login_date",1).over(windowspec),$"login_date"))>5,$"login_date").否则(coalesce(lag($"login_date",1).over(windowspec),$"login_date"))).show()
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.