繁体   English   中英

YARN上的Spark 2正在自动使用更多的群集资源

[英]Spark 2 on YARN is utilizing more cluster resource automatically

我在CDH 5.7.0上,我可以看到在YARN集群上运行spark 2的一个奇怪问题。 下面是我的工作提交命令

spark2-submit --master yarn --deploy-mode cluster --conf“spark.executor.instances = 8”--conf“spark.executor.cores = 4”--conf“spark.executor.memory = 8g” - -conf“spark.driver.cores = 4”--conf“spark.driver.memory = 8g”--class com.learning.Trigger learning-1.0.jar

即使我限制了我的工作可以使用的群集资源的数量,我也可以看到资源利用率超过分配的数量。

这项工作从基本的内存消耗开始,比如8G的内存,并且会让我们吃掉整个集群。

没有将动态分配设置为true。 我只是在SparkSession之上触发INSERT OVERWRITE查询。

任何指针都会非常有用。

我在集群中创建了资源池,并将一些资源分配为

最小资源:4个虚拟内核和8 GB内存

使用这些池来分配spark作业以限制资源(VCores和内存)的使用。

例如spark2-submit --class org.apache.spark.SparkProgram.rt_app --master yarn --deploy-mode cluster --queue rt_pool_r1 /usr/local/abc/rt_app_2.11-1.0.jar

如果有人有更好的选择存档,请告诉我们。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM