繁体   English   中英

什么时候实现了自动 Spark RDD 分区缓存驱逐?

[英]When was automatic Spark RDD partition cache eviction implemented?

过去 Spark 会 OOM 很多Spark java.lang.OutOfMemoryError: Java heap space

我已经注意到,如果 RDD 无法放入内存,那么最近(对我来说,自从我从 0.7 开始以来,最近是 1.6+)版本的 Spark 不会抛出 OOM。 相反,RDD 分区被逐出,因此需要重新计算它们。

我想知道是哪个版本的 Spark 进行了此更改?

我尝试通读了很多https://spark.apache.org/releases/,但找不到任何明确的内容。

我很确定它大约是 2.0,但找不到任何证据来证明它。

这个 Jira 似乎暗示它是在 1.6 https://issues.apache.org/jira/browse/SPARK-14289 中与统一内存管理一起实现的

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM