繁体   English   中英

在Spark RDD上使用本机Scala方法是否会失去Spark魔术功能?

[英]Does using native Scala methods on Spark RDD's lose out on Spark magic?

我正在研究Spark,但对Spark如何处理某些问题有疑问。

假设我有一个键->值对的RDD :(客户ID,TotalSpend)。 如果我在RDD上使用.sortBy,由于.sortBy是Scala方法而不是Spark方法,我会错过Spark Magic吗?

换句话说,要从Spark所做的分发中受益,您只能在RDD上使用Spark方法吗? 我已经看到了一些示例,人们希望这样做:rdd.sortBy(x => x._2),但是相反,他们将首先映射rdd来反转元组成员,然后使用rdd.reduceByKey()。

RDD.sortBy ,与RDD相关的所有其他操作都来自Spark,它不属于Scala标准库。 由于RDD的整个概念都来自Spark,因此没有适用于RDD的标准Scala方法。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM