繁体   English   中英

在纱线上配置执行程序和驱动程序内存

[英]Configuring Executor and Driver memory in Spark-on-Yarn

我对在Spark 1.5.2中配置执行程序和驱动程序内存感到困惑。

我的环境设置如下:

3 Node MAPR Cluster - Each Node: Memory 256G, 16 CPU 
Hadoop 2.7.0 
Spark 1.5.2 - Spark-on-Yarn

输入数据信息:

Hive的460 GB Parquet格式表我正在使用spark-sql通过spark-on-yarn查询hive上下文,但是它比Hive慢很多,并且不确定Spark的内存配置是否正确,

这些是我的配置

    export SPARK_DAEMON_MEMORY=1g
    export SPARK_WORKER_MEMORY=88g

    spark.executor.memory              2g
    spark.logConf                      true
    spark.eventLog.dir                 maprfs:///apps/spark
    spark.eventLog.enabled             true
    spark.serializer                   org.apache.spark.serializer.KryoSerializer
    spark.driver.memory                5g
    spark.kryoserializer.buffer.max    1024m

如何避免Spark java.lang.OutOfMemoryError:Java堆空间异常和GC开销限制超出了异常! ???

非常感谢您的协助!

乍一看,您耗尽了执行程序的内存。 我建议增加他们的记忆力。

请注意,SPARK_WORKER_MEMORY仅在独立模式下使用。 SPARK_EXECUTOR_MEMORY在YARN模式下使用。

如果您没有在集群上运行其他任何东西,则可以尝试以下配置:

spark.executor.memory   16g
spark.executor.cores    1
spark.executor.instances 40
spark.driver.memory  5g (make it bigger if expected 
                         final result dataset is larger)

我不建议设置较大的执行程序内存,因为这通常会增加GC时间。 我看到的另一件事是,这些实例是内存优化的。 如果适合您的情况,请三思。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM