繁体   English   中英

遍历Scala中的spark cogroup()pairrdd输出

[英]Iterate over spark cogroup() pairrdd output in scala

我在Spark中创建了2对RDD

var pairrdd = sc.parallelize(List((1,2),(3,4),(3,6)))
var pairrdd2 = sc.parallelize(List((3,9)))

我应用了cogroup函数

var cogrouped = pairrdd.cogroup(pairrdd2)

cogroupedrdd的对象类型如下所示。

cogrouped: org.apache.spark.rdd.RDD[(Int, (Iterable[Int], Iterable[Int]))] = MapPartitionsRDD[801] at cogroup at <console>:60

我正在尝试创建一个函数来迭代这些值

def iterateThis((x: Int,(x1:Iterable[Int],x2:Iterable[Int])))={
  println(x1.mkString(","))
}

但我得到以下错误。

<console>:21: error: identifier expected but '(' found.
       def iterateThis((x: Int,(x1:Iterable[Int],x2:Iterable[Int])))={
                   ^

您的参数的类型为(Int, (Iterable[Int], Iterable[Int]))

def iterateThis(arg: (Int, (Iterable[Int], Iterable[Int]))) = {
  val (_, (x1, _)) = arg
  println(x1.mkString(","))
}

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM