[英]Combine two different RDDs with different key in Scala
我有兩個文本文件已經由 sparkcontext 創建為 rdd。
其中一個(rdd1)保存相關詞:
apple,apples
car,cars
computer,computers
另一個(rdd2)保存項目數:
(apple,12)
(apples, 50)
(car,5)
(cars,40)
(computer,77)
(computers,11)
我想結合這兩個 rdd
危險輸出:
(apple, 62)
(car,45)
(computer,88)
如何編碼?
工作的重點是為相關詞選擇一個關鍵。 在這里,我只選擇第一個單詞,但實際上你可以做一些比隨機選擇一個詞更聰明的事情。
解釋:
val s = Seq(("apple","apples"),("car","cars")) // create data
val rdd = sc.parallelize(s)
val t = Seq(("apple",12),("apples", 50),("car",5),("cars",40))// create data
val rdd2 = sc.parallelize(t)
val keyed = rdd.flatMap( {case(a,b) => Seq((a, a),(b,a)) } ) // could be replace with any function that selects the key to use for all of the related words
.join(rdd2) // complete the join
.map({case (_, (a ,b)) => (a,b) }) // recreate a tuple and throw away the related word
.reduceByKey(_ + _)
.foreach(println) // to show it works
即使這解決了您的問題,您也可以使用更優雅的解決方案與您可能希望研究的 Dataframes 一起使用。 您可以直接在 RDD 上使用 reduce 並跳過映射回元組的步驟。 我認為這將是一個更好的解決方案,但希望保持簡單,以便更能說明我所做的事情。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.