简体   繁体   English

如何理解spark-submit脚本高手是YARN?

[英]How to understand spark-submit script master is YARN?

We have all 6 machine, hdfs and yarn service on all node, 1 master and 6 slaves. 我们在所有节点上都有6个机器,hdfs和yarn服务,1个主节点和6个从属节点。 And we install Spark on 3 machine, 1 master, 3 workers ( 1 node master + worker) . 然后将Spark安装在3台机器上,即1个主机,3个工作程序(1个节点主机+工作程序)。 We know when --master spark://[host]:[port] , the job will run only 3 node use standalone mode. 我们知道--master spark://[host]:[port] ,作业将在独立模式下仅运行3个节点。 And when use spark-submit --master yarn submit a jar, it's would use all 6 server cpu and memory or just use 3 spark worker node machine ? 当使用spark-submit --master yarn提交一个jar时,它将使用所有6个服务器cpu和内存,或者仅使用3个spark worker节点机器? And if can run all 6 node, How left 3 server can know it's the Spark job? 而且如果可以运行所有6个节点,那么剩下的3个服务器如何知道这是Spark作业?

Spark: 2.3.1 Hadoop: 2.7.3 Spark:2.3.1 Hadoop:2.7.3

在纱线模式下,火花提交将资源分配资源发送到纱线,并且容器将基于资源可用性在不同的节点管理器上启动。

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM