[英]Spark partitions size on coalesce
有什么办法可以让 Spark 在coalesce
制作相同大小的分区吗?
Stats[] stats = sparkSession
.read()
.parquet(salesPath)
.coalesce(5) // may produce partitions of 120, 1, 1, 0, 0
没有办法使用coalesce
相同大小的分区。 您应该为此使用repartition
。
查看https://spark.apache.org/docs/2.2.0/rdd-programming-guide.html#transformations
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.