[英]Sort every column of a dataframe in spark scala
我在 Spark & Scala 工作,并且有一个 dataframe 有数百列。 我想按每一列对 dataframe 进行排序。 无论如何在 Scala/Spark 中可以做到这一点?
我努力了:
val sortedDf = actualDF.sort(actualDF.columns)
但.sort
不支持Array[String]
输入。
之前已经问过这个问题: Sort all columns of a dataframe but there is no Scala answer
感谢@blackbishop 对此的回答:
val dfSortedByAllItsColumns = actualDF.sort(actualDF.columns.map(col): _*)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.