[英]Divide the values of two rdds in spark (python)
我在spark中有这两个键值RDD:
rdd1 = [(u'Key1', 4), (u'Key2', 6), (u'Key3', 10)]
rdd2 = [(u'Key1', 4), (u'Key2', 3), (u'Key3', 2)]
我查看spark函数来得到值的除法:(rdd3 =(rdd1 / rdd2))
在这种情况下:
rdd3 = [(u'Key1', 1), (u'Key2', 2), (u'Key3', 5)]
你可以join
和mapValues
:
rdd1.join(rdd2).mapValues(lambda x: x[0] / x[1])
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.