[英]Does executors in spark nd application master in yarn do the same job?
[英]Does Yarn allocates one container for the application master from the number of executors that we pass in our spark-submit command
假设我正在以 yarn-client 模式提交 Spark 应用程序。 在 Spark submit 中,我将 --num-executors 传递为 10。当客户端将此 spark 应用程序提交到 resourceManager 时,
资源管理器是否从 --num-executors(10) 为应用程序主进程分配一个执行器容器,并且将为实际执行器提供 rest 9?
或者
它是为 application master 分配一个新的容器还是为 executor 单独分配 10 个容器?
--num-executors
是从集群管理器(也可能是 Hadoop YARN)请求执行器的数量。 这是 Spark 的要求。
(YARN 应用程序的)应用程序主机只是 YARN 的一个东西。
Spark 应用程序也可能是 YARN 应用程序。 在这种情况下,Spark 应用程序为 AM 获得 10 个容器和一个额外的容器。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.