繁体   English   中英

java.lang.OutofMemoryError:Java堆空间从pyspark中的rdd收集很多元素

[英]java.lang.OutofMemoryError: Java heap space collecting a lot of elements from an rdd in pyspark

我试图从pyspark中的rdd收集大量项目。我收到此错误java.lang.OutofMemoryError:Java堆空间。 我认为增加Java堆空间会有所帮助。

在此处输入图片说明

我尝试了以下命令java -Xmx2g以增加Java堆空间,但它不起作用。

在此处输入图片说明

还有其他想法吗? 谢谢!

您可以通过设置spark.driver.memoryspark.executor.memory来控制Spark驱动程序和执行程序进程可以使用的内存量。

例如,您可以这样运行Spark:

/bin/spark-submit --name "My app" --master local[4] \
    --conf spark.driver.memory=2g \
    --conf spark.executor.memory=2g myApp.jar

您可以通过几种不同的方式配置这些属性,请参见Spark配置上文档

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM