![](/img/trans.png)
[英]How to decide the exact number of executors in spark job?Is their any formula for that?
[英]how to decide number of executors for 1 billion rows in spark
我們有一個包含 13.55 億行的表。 該表有 20 列。
我們想將此表與另一個具有更多或更少相同行數的表連接起來。
如何確定spark.conf.set("spark.sql.shuffle.partitions",?)
的數量
如何確定執行者的數量及其資源分配細節?
如何找到這 13.55 億行將在 memory 中占用的存儲量?
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.