簡體   English   中英

如何設置Spark執行器內存?

[英]How to set Spark executor memory?

我已將spark.executor.memory設置為2048m ,並在UI“環境”頁面中,我可以看到此值已正確設置。 但是在“Executors”頁面中,我看到只有1個執行程序,其內存為265.4MB 非常奇怪的價值。 為什么不是256MB,或者就像我設置的一樣?

我在這里錯過了什么?

UI上的“執行者”選項卡還包括列表中的驅動程序。 其“執行者ID”列為<driver> 此過程不是由Spark啟動的,因此不受spark.executor.memory影響。

  • 如果你用spark-submit啟動驅動程序,它的最大內存可以由spark.driver.memory--driver-memory
  • 如果以普通的舊Java程序啟動它,請使用通常的-Xmx Java標志。

有關265.4MB內存大小,請參閱以下問題...

如何設置Apache Spark Executor內存

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM