繁体   English   中英

合并时的 Spark 分区大小

[英]Spark partitions size on coalesce

有什么办法可以让 Spark 在coalesce制作相同大小的分区吗?

Stats[] stats = sparkSession
    .read()
    .parquet(salesPath)
    .coalesce(5) // may produce partitions of 120, 1, 1, 0, 0

没有办法使用coalesce相同大小的分区。 您应该为此使用repartition

查看https://spark.apache.org/docs/2.2.0/rdd-programming-guide.html#transformations

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM