簡體   English   中英

Scala Spark RDD當前分區數

[英]Scala Spark RDD current number of partitions

如何確定Scala中任意RDD的分區數?

我知道PySpark RDD在其API中定義了getNumPartitions,但是我找不到Scala方面的等價物。

至少在Spark 1.6.1中這是有效的

rdd.getNumPartitions()

它應該是rdd.partitions.length

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM