![](/img/trans.png)
[英]Spark : Average of values instead of sum in reduceByKey using Scala
[英]Spark - Best way agg two values using ReduceByKey
使用Spark,我有一對RDD[(String, (Int, Int)]
。我試圖找到最好的方法來顯示每個鍵的多個和(在這種情況下,分別顯示每個Int
的和)。使用reduceByKey
做到這reduceByKey
。
這可能嗎?
當然。
val rdd = sc.parallelize(Array(("foo", (1, 10)), ("foo", (2, 2)), ("bar", (5, 5))))
val res = rdd.reduceByKey((p1, p2) => (p1._1 + p2._1, p1._2 + p2._2))
res.collect()
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.