繁体   English   中英

Apache Spark:限制Spark App使用的执行程序数量

[英]Apache Spark: Limit number of executors used by Spark App

是否可以限制一个应用程序在Spark上使用的执行程序的数量? 我可以使用spark.executor.instances设置执行程序的初始数量,但是稍后在我的应用程序中,Spark似乎会自己添加它可以添加的所有可用执行程序。

这使其无法在群集上同时运行其他作业。 谷歌搜索使我知道解决方案,但是spark.cores.max似乎对限制执行者的总数无效。

spark.dynamicAllocation.maxExecutors=infinity

默认情况下,此属性为无穷大,您可以设置此属性以限制执行程序的数量。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM