簡體   English   中英

您將如何將此功能性Java代碼轉換為SparkContext之上的Scala?

[英]how would you transform this functional java code to scala above SparkContext?

好的,所以我有points ,它是一個List<GeoPoint>

以下代碼是使用Java 8功能API編寫的。 它獲取這些點,為每個點計算其匹配的簇,然后通過ClusterKey它們分組。 最終,我們得到一個Map<ClusterKey, List<GeoPoint>它是:

points.
   parallelStream().unordered().
   collect(groupingByConcurrent(Functions::calcClusterKey))
sc.parallelize(points).groupBy(Functions.calcClusterKey).collect.toMap

對應是1:1。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM