繁体   English   中英

Spark java.lang.UnsupportedOperationException:空集合

[英]Spark java.lang.UnsupportedOperationException: empty collection

运行此代码时,在某些情况下会出现空集合错误。

    val result = df
                  .filter(col("channel_pk") === "abc")
                  .groupBy("member_PK")
                  .agg(sum(col("price") * col("quantityOrdered")) as "totalSum")
                  .select("totalSum")
                  .rdd.map(_ (0).asInstanceOf[Double]).reduce(_ + _)

错误发生在此行:

.rdd.map(_ (0).asInstanceOf[Double]).reduce(_ + _)

当collection为空时,我希望result等于0。该怎么办?

该错误仅出现在该行,因为这是您第一次执行某些操作。 在此之前,火花不会执行任何操作(惰性)。 您的df只是空的。 您可以通过在以下代码之前添加来进行验证: assert(!df.take(1).isEmpty)

当collection为空时,我希望结果等于0。该怎么办?

进行聚合之前,只需检查数据框是否有一些行

val result = if(df.take(1).isEmpty) 0 else df
  .filter(col("channel_pk") === "abc")
  .groupBy("member_PK")
  .agg(sum(col("price") * col("quantityOrdered")) as "totalSum")
  .select("totalSum")
  .rdd.map(_(0).asInstanceOf[Double]).reduce(_ + _)

或者你也可以使用count

val result = if(df.count() == 0) 0 else df
  .filter(col("channel_pk") === "abc")
  .groupBy("member_PK")
  .agg(sum(col("price") * col("quantityOrdered")) as "totalSum")
  .select("totalSum")
  .rdd.map(_(0).asInstanceOf[Double]).reduce(_ + _)

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM