简体   繁体   English

在火花 java dataframe 中合并列

[英]Coalesce columns in spark java dataframe

There are similar posts on Stack Overflow for the same question but none on a Java Spark Dataframe. Stack Overflow 上也有类似的帖子,但在 Java Spark Dataframe 上没有。

Can anyone help me with the same but in java.任何人都可以帮助我,但在 java 中。

I tried the solution posted here but its not working on Java.我尝试了此处发布的解决方案,但它不适用于 Java。 Seems like coalesce function takes Scala.collections.seq<columns> as type.似乎合并 function 将Scala.collections.seq<columns>作为类型。 how to make it work in Java如何使其在 Java 中工作

I had to convert the columns to Seq to make it work in Java 8.我必须将列转换为 Seq 以使其在 Java 8 中工作。

public Seq<Column> getSeqString(Column a, Column b)
    {
        ArrayList<Column> cols = new ArrayList<Column>();
        cols.add(a);
        cols.add(b);
        return scala.collection.JavaConverters.collectionAsScalaIterableConverter(cols).asScala().toBuffer();
    }

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM