[英]How to use a java custom comparator for ordering a Spark RDD
我有一個以這種方式實現Comparator的類:
public class MyObject<T>
{
public static class MyObjectComp<T> implements Comparator<MyObject<T>>
{
private LinkedHashSet<Integer> attrList;
public MyObjectComp (int[] intList)
{
this.attrList = new LinkedHashSet<Integer>();
for (int idx: intList)
attrList.add(idx);
}
public MyObjectComp (LinkedHashSet<Integer> attrList)
{
this.attrList = attrList;
}
public int compare(MyObject<T> pf1, MyObject<T> pf2)
{
for (Integer idx: attrList)
{
double pf1Norm = pf1.atribute.get(idx).myList.size();
double pf2Norm = pf2.atribute.get(idx).myList.size();
if (pf1Norm > pf2Norm)
return 1;
else if (pf1Norm < pf2Norm)
return -1;
}
return (pf1.key > pf2.key) ? 1 : ((pf1.key < pf2.key) ? -1 : 0);
}
}
}
在用scala編寫的代碼的另一部分中,我使用此MyObject創建了RDD。 現在,我需要使用MyObject的內部比較器類對RDD的元素進行排序。 我如何使用myRDD. sort()?
類的功能來做到這myRDD. sort()?
myRDD. sort()?
類似於(注意:尚未嘗試此代碼)
implicit val moo = new MyObjectComp[ T ]( /* ... */ ).asScala
myRDD.sortBy( t => t )
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.