繁体   English   中英

Spark:Scala等效于Java df.filter()

[英]Spark: Scala equivalent to Java df.filter()

我想知道Scala中与Spark Java函数filter等效的东西是什么:

DataFrame df = sqlContext.read().parquet(xxx);
String filter = "SomeFilter";
df.filter(filter);

通常, filter应该在Scala中将函数作为输入,为什么在Java中使用string

这是相同的模语法:

val df = sqlContext.read().parquet(xxx)
val filter = "SomeFilter"
df.filter(filter)

使用def filter(conditionExpr: String): Dataset[T] 请注意,Scala Spark API中的Dataset[Row] Dataframe 只是一个Dataset[Row]

还有这需要一个过载Column@Experimental其中一个需要的功能。

通常,过滤器应该在Scala中将函数作为输入,为什么在Java中使用字符串?

filter只是一个方法名称,它可以接受定义的任何参数。 此处的字符串(或Column )表示SQL布尔条件。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM