簡體   English   中英

Spark-使用ReduceByKey匯總兩個值的最佳方法

[英]Spark - Best way agg two values using ReduceByKey

使用Spark,我有一對RDD[(String, (Int, Int)] 。我試圖找到最好的方法來顯示每個鍵的多個和(在這種情況下,分別顯示每個Int的和)。使用reduceByKey做到這reduceByKey

這可能嗎?

當然。

val rdd = sc.parallelize(Array(("foo", (1, 10)), ("foo", (2, 2)), ("bar", (5, 5))))
val res = rdd.reduceByKey((p1, p2) => (p1._1 + p2._1, p1._2 + p2._2))
res.collect()

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM