繁体   English   中英

Spark:如何使用join方法?

[英]Spark:How to use join method?

现在我有2个RDD要加入,但是当我键入“ .join”时,我的IDE找不到此符号,它告诉我“无法解析符号加入”。我已经使用过maven来构建项目并重新导入函数来处理我的问题。依赖性。 我错过了一些依赖吗? 有人可以告诉我如何解决吗? 谢谢!

您需要通过导入org.apache.spark.SparkContext._来启用Spark隐式转换,以访问(键,值)对的RDD上可用的额外功能。

import org.apache.spark.SparkContext._

val p1: RDD[(K, V)] = ...
val p2: RDD[(K, W)] = ...
val joined: RDD[(K, (V, W))] = p1.join(p2)

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM