繁体   English   中英

获取Spark Dataframe列中列表的最后一个元素

[英]Get last element of list in Spark Dataframe column

我有一个具有以下架构的DataFrame

root
 |-- memberId: long (nullable = true)
 |-- items: array (nullable = true)
 |    |-- element: struct (containsNull = true)
 |    |    |-- timestamp: long (nullable = true)
 |    |    |-- itemId: integer (nullable = true)
 |    |    |-- weight: double (nullable = true)

说,DataFrame(称为df )看起来像这样。

+-----------+------------------------------------------------------------------------+
|memberId   |items                                                                   |
+-----------+------------------------------------------------------------------------+
|10000000001|[[1234567891, 104, 1.0], [1234567892, 103, 3.0]]                        |
|10000000002|[[1234567891, 103, 1.0], [1234567893, 102, 1.0], [1234567894, 101, 2.0]]|
+-----------+------------------------------------------------------------------------+

可以看出, dfmemberIdstruct list的映射。 我想对其进行转换,以便检索对应于每个成员的struct列表中的最后一个元素。 因此,产生的DataFrame应该看起来像

+-----------+----------------------+
|memberId   |lastItem              |
+-----------+----------------------+
|10000000001|[1234567892, 103, 3.0]|
|10000000002|[1234567894, 101, 2.0]|
+-----------+----------------------+

我试过了

val newDf = df
  .withColumn("lastItem", last($"items"))
  .drop("items")

但这仅引发以下形式的异常:

grouping expressions sequence is empty, 
and '`memberId`' is not an aggregate function. 
Wrap '(last(`items`, false) AS `item`)' in 
windowing function(s) or wrap '`memberId`' in 
first() (or first_value) if you don't care which value you get

我相信发生这种情况是因为last是一个aggregation函数,并且要求我在调用last之前使用.groupBy("memberId")

我怎样才能做到这一点? 在使用DataFrame时,不鼓励使用UDF ,但是我找不到能完成我打算做的事情的本机函数。

您可以使用array类型的Columnapply方法来执行此操作,通过它可以访问数组元素:

val newDf = df
.withColumn("lastItem", $"items"(size($"items")-1))
.drop("items")

编辑:

要获得前n-1个项目,我将使用UDF:

val sliceUDF = udf((arr:Seq[Row],from:Int,to:Int) => arr.slice(from,to).map{case Row(ts:Long,Id:Int,w:Double) => (ts,Id,w)})

val newDf = df
  .withColumn("subItems", sliceUDF($"items",lit(0),size($"items")-1))
  .drop("items")

也许也可以使用纯DataFrame API来完成,但是我认为这会相当复杂(例如,结合使用posexplode ,window-function和collect_list

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM