繁体   English   中英

UDAF Spark中的多列输出

[英]Multiple column output in UDAF Spark

我从我的mongodb获得了一些看起来像这样的数据:

     +------+-------+
     | view | data  |
     +------+-------+
     |  xx  | ***   |
     |  yy  | ***   |
     |  xx  | ***   |
     +------+-------+

没有必要知道里面是什么。

我写了一个像这样的UserDefinedAggregateFunction,因为我想对视图进行分组:

class Extractor() extends UserDefinedAggregateFunction{
  override def inputSchema: StructType = // some stuff

  override def bufferSchema: StructType = 
      StructType(
        List(
          StructField("0",IntegerType,false),
          StructField("1",IntegerType,false),
          StructField("2",IntegerType,false),
          StructField("3",IntegerType,false),
          StructField("4",IntegerType,false),
          StructField("5",IntegerType,false),
          StructField("6",IntegerType,false),
          StructField("7",IntegerType,false)
        )
      )

  override def dataType: DataType = bufferSchema        

  override def deterministic: Boolean = true

  override def initialize(buffer: MutableAggregationBuffer): Unit = {
    for (x <- 0 to 7){
      buffer(x) = 0
    }
  }

  override def update(buffer: MutableAggregationBuffer, input: Row): Unit = // some stuff

  override def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = // some stuff

  override def evaluate(buffer: Row): Any = 
      var l = List.empty[Integer]
      for (x <- 7 to 0 by -1){
          l = buffer.getInt(x) :: l
      }
      l
}

我的输出应该是这样的:

     +------+---+---+---+---+---+---+---+---+
     | view | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 |
     +------+---+---+---+---+---+---+---+---+
     |  xx  | 0 | 0 | 4 | 1 | 0 | 0 | 3 | 0 |
     |  yy  | 0 | 0 | 0 | 3 | 0 | 1 | 0 | 0 |
     +------+---+---+---+---+---+---+---+---+

这些值是在上面的更新/合并函数中计算出来的,但这样可行并且没有必要让您看到它。

然后我像这样使用它:

val ex = new Extractor()
val df = dataset.groupBy("view").agg(
      ex(dataset.col("data"))
)
df.show()

当我执行df.show()时,它总是给我一个IndexOutOfBoundException。 我知道这是懒惰的评估,这就是我在df.show()中出错的原因。

据我所知,它可以执行第一组并结束评估功能。 但之后我得到一个IndexOutOfBoundException ...

当我更改dataType并将函数评估为:

override def dataType: DataType =
    ArrayType(IntegerType,false)

override def evaluate(buffer: Row): Any = {
    var l = ofDim[Integer](8)
    for (x <- 0 to 7){
      l(x) = buffer.getInt(x)
    }
    l

输出看起来像这样:

     +------+------------------------------+
     | view | Extractor                    |
     +------+------------------------------+
     |  xx  | [0, 0, 4, 1, 0, 0, 3, 0]     |
     |  yy  | [0, 0, 0, 3, 0, 1, 0, 0]     |
     +------+------------------------------+

架构看起来像这样:

root
 |-- view: string (nullable = true)
 |-- Extractor: array (nullable = true)
 |    |-- element: integer (containsNull = false)

我无法以我想要的形式转换它。

因为第二种方法有效,我认为我在第一种方法中弄乱了DataType,但我不知道如何解决它...

许多介绍所以我的问题:

如何获得我想要的输出? 我并不关心这两种方法中的哪一种(首先是多个输出列或者可以转换为我想要的形式的数组),只要它有效。

谢谢你的帮助

您将聚合输出定义为列表:

 override def dataType: DataType = bufferSchema

因为bufferSchema是一个List,所以这就是你最终得到的。 您可以稍后更改架构,并将列表中的每个列转换为新列。

对于您的错误,区别:

override def evaluate(buffer: Row): Any = 
  var l = List.empty[Integer]
  for (x <- 7 to 0 by -1){
      l = buffer.getInt(x) :: l
  }
  l

override def evaluate(buffer: Row): Any = 
  var l = ofDim[Integer](8)
  for (x <- 0 to 7){
    l = buffer.getInt(x) :: l
  }
  l

就是在第二个中,您定义了预定义数量的列。 因此,您确定可以毫无问题地从0到7进行迭代。

对于您的第一个示例并非如此,因此,我怀疑您可能有一个格式错误的数据会导致您的缓冲区在initializemerge被错误地初始化。 我建议你添加一个try / catch来验证缩放缓冲区长度的每一步后的大小(至少initialize但也可以updatemerge )。

要为列表中的每个元素添加列,可以使用withColumn或通过地图执行。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM