[英]Incremental MapReduce in Hadoop (with mongodb-hadoop adapter)
我想在Hadoop中進行mapreduce工作,感謝mongo-hadoop連接器將結果保存在MongoDB中。 有沒有辦法像在MongoDB中那樣在hadoop中進行增量mapreduce?
如果結果集中和舊集合中存在給定鍵的文檔,則將對這兩個值執行歸約運算(使用指定的reduce函數),並將結果寫入輸出集合。
不要告訴我使用MongoDB的MapReduce,因為它的性能令人尷尬。
我們目前在Mongo-Hadoop中不支持這種增量工作。 將來的版本可能會支持它。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.