[英]Data transformation in Spark Scala
我有以下數據框
+-----+-----+-----+ .......+-------+
|item1|item2|item3|........| itemN |
+-----+-----+-----+........|-------+
| v1| v2| v3|........| vN----+
| v4| v5| v6|........| v2N---+
+-----+-----+-----+........|-------+
這里的item1,item2和item3是列名,表由1行v1,v2,v3組成。
我想把它變成
colA colB
item1 v1
item2 v2
item3 v3
. .
. .
. .
這里有兩列,比如說colA和colB,行如圖所示。
如何使用Scala在Spark中進行此轉換?
您可以使用explode
:
import org.apache.spark.sql.functions._
input.show()
// +-----+-----+-----+
// |item1|item2|item3|
// +-----+-----+-----+
// | v1| v2| v3|
// | v4| v5| v6|
// +-----+-----+-----+
val columns: Array[String] = input.columns
val result = input.explode(columns.map(s => col(s)): _*) {
r: Row => columns.zipWithIndex.map { case (name, index) => (name, r.getAs[String](index)) }
}.select($"_1" as "colA", $"_2" as "colB")
result.show()
// +-----+----+
// | colA|colB|
// +-----+----+
// |item1| v1|
// |item2| v2|
// |item3| v3|
// |item1| v4|
// |item2| v5|
// |item3| v6|
// +-----+----+
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.