簡體   English   中英

什么時候實現了自動 Spark RDD 分區緩存驅逐?

[英]When was automatic Spark RDD partition cache eviction implemented?

過去 Spark 會 OOM 很多Spark java.lang.OutOfMemoryError: Java heap space

我已經注意到,如果 RDD 無法放入內存,那么最近(對我來說,自從我從 0.7 開始以來,最近是 1.6+)版本的 Spark 不會拋出 OOM。 相反,RDD 分區被逐出,因此需要重新計算它們。

我想知道是哪個版本的 Spark 進行了此更改?

我嘗試通讀了很多https://spark.apache.org/releases/,但找不到任何明確的內容。

我很確定它大約是 2.0,但找不到任何證據來證明它。

這個 Jira 似乎暗示它是在 1.6 https://issues.apache.org/jira/browse/SPARK-14289 中與統一內存管理一起實現的

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM