[英]Apache Spark: Limit number of executors used by Spark App
是否可以限制一个应用程序在Spark上使用的执行程序的数量? 我可以使用spark.executor.instances
设置执行程序的初始数量,但是稍后在我的应用程序中,Spark似乎会自己添加它可以添加的所有可用执行程序。
这使其无法在群集上同时运行其他作业。 谷歌搜索使我知道解决方案,但是spark.cores.max
似乎对限制执行者的总数无效。
spark.dynamicAllocation.maxExecutors=infinity
默认情况下,此属性为无穷大,您可以设置此属性以限制执行程序的数量。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.