繁体   English   中英

在哪里设置“ spark.yarn.executor.memoryOverhead”

[英]Where to set “spark.yarn.executor.memoryOverhead”

运行我的spark-scala程序时出现以下错误。

YarnSchedulerBackends $ YarnSchedulerEndpoint:容器因超出内存限制而被YARN杀死。 使用了2.6GB的2.5GB物理内存。 考虑提高spark.yarn.executor.memoryOverhead。

创建SparkSession时,已在程序中设置了spark.yarn.executor.memoryOverhead。

我的问题是-创建SparkSession时可以设置“ spark.yarn.executor.memoryOverhead”还是应该在运行时通过spark-submit传递它?

您必须在创建spark.yarn.executor.memoryOverhead时设置spark.yarn.executor.memoryOverhead。 此参数用作要为每个执行程序分配的堆外内存量(以兆字节为单位)。 这是一种内存,用于解决VM开销,内部字符串,其他本机开销等问题。随着执行程序大小的增加(通常为6%至10%),内存通常会增加。

现在,该分配只能在分配执行程序时进行,而不能在运行时进行。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM