[英]Spark/Python, reduceByKey() then find top 10 most frequent words and frequencies
我有一个带有 Hadoop + Spark 的 VirtualMachine 设置,我正在从我的 HDFS 读取文本文件“words.txt”,然后调用 map()、flatmap()、reduceByKey() 并尝试获取前 10 个最常用的单词以及它们的发生。 我已经完成了大部分代码,然后正在聚合元组列表,但我只需要一种方法来找到前 10 个。 我知道我需要简单地遍历元组中的值(键是实际的 str 单词,但值是单词在 words.txt 文件中出现的次数的整数)并且只需要一个计数器来计算顶部10. (K,V) 值对是 Key = word from words.txt,Value = 整数聚合值,表示它在文件中出现的次数。 下面的截图是在 reduceByKey() 已经被调用之后,你可以看到 'the' 出现了 40 次(屏幕截图的结尾在右边)
到目前为止,这是我的代码:
from pyspark import SparkcConf, SparkContext
# Spark set-up
conf = SparkConf()
conf.setAppName("Word count App")
sc = SparkContext(conf=conf)
# read from text file words.txt on HDFS
rdd = sc.textFile("/user/spark/words.txt")
# flatMap() to output multiple elements for each input value, split on space and make each word lowercase
rdd = rdd.flatMap(lamda x: x.lower().split(' '))
# Map a tuple and append int 1 for each word in words.txt
rdd = rdd.map(lamda x: (x,1))
# Perform aggregation (sum) all the int values for each unique key)
rdd = rdd.reduceByKey(lamda x, y: x+y)
# This is where I need a function or lambda to sort by descending order so I can grab the top 10 outputs, then print them out below with for loop
# for item in out:
print(item[0], '\t:\t', str(item[1]))
我知道我通常只会创建一个名为“max”的变量,并且只有在列表或元组中找到最大值时才更新它,但让我感到困惑的是我正在处理 Spark 和 RDD,所以我一直在收到错误,因为我对 RDD 在执行 map、flatmap、reduceByKey 等操作时返回的内容感到有些困惑……
非常感谢任何帮助
您可以在减少后反转K,V
,以便您可以使用sortByKey
函数:
rdd.map(lambda (k,v): (v,k)).sortByKey(False).take(10)
对于 Python 3:(因为不再支持 lambda 表达式中的元组解包)
rdd.map(lambda x: (x[1], x[0])).sortByKey(False).take(10)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.