[英]How to set Spark executor memory?
我已將spark.executor.memory設置為2048m ,並在UI“環境”頁面中,我可以看到此值已正確設置。 但是在“Executors”頁面中,我看到只有1個執行程序,其內存為265.4MB 。 非常奇怪的價值。 為什么不是256MB,或者就像我設置的一樣?
我在這里錯過了什么?
UI上的“執行者”選項卡還包括列表中的驅動程序。 其“執行者ID”列為<driver>
。 此過程不是由Spark啟動的,因此不受spark.executor.memory
影響。
spark-submit
啟動驅動程序,它的最大內存可以由spark.driver.memory
或--driver-memory
-Xmx
Java標志。 有關265.4MB內存大小,請參閱以下問題...
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.