[英]Configuring Executor and Driver memory in Spark-on-Yarn
我对在Spark 1.5.2中配置执行程序和驱动程序内存感到困惑。
我的环境设置如下:
3 Node MAPR Cluster - Each Node: Memory 256G, 16 CPU
Hadoop 2.7.0
Spark 1.5.2 - Spark-on-Yarn
输入数据信息:
Hive的460 GB Parquet格式表我正在使用spark-sql通过spark-on-yarn查询hive上下文,但是它比Hive慢很多,并且不确定Spark的内存配置是否正确,
这些是我的配置
export SPARK_DAEMON_MEMORY=1g
export SPARK_WORKER_MEMORY=88g
spark.executor.memory 2g
spark.logConf true
spark.eventLog.dir maprfs:///apps/spark
spark.eventLog.enabled true
spark.serializer org.apache.spark.serializer.KryoSerializer
spark.driver.memory 5g
spark.kryoserializer.buffer.max 1024m
如何避免Spark java.lang.OutOfMemoryError:Java堆空间异常和GC开销限制超出了异常! ???
非常感谢您的协助!
乍一看,您耗尽了执行程序的内存。 我建议增加他们的记忆力。
请注意,SPARK_WORKER_MEMORY仅在独立模式下使用。 SPARK_EXECUTOR_MEMORY在YARN模式下使用。
如果您没有在集群上运行其他任何东西,则可以尝试以下配置:
spark.executor.memory 16g
spark.executor.cores 1
spark.executor.instances 40
spark.driver.memory 5g (make it bigger if expected
final result dataset is larger)
我不建议设置较大的执行程序内存,因为这通常会增加GC时间。 我看到的另一件事是,这些实例是内存优化的。 如果适合您的情况,请三思。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.