[英]Scala Spark RDD current number of partitions
如何確定Scala中任意RDD的分區數?
我知道PySpark RDD在其API中定義了getNumPartitions,但是我找不到Scala方面的等價物。
至少在Spark 1.6.1中這是有效的
rdd.getNumPartitions()
它應該是rdd.partitions.length
。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.