[英]When was automatic Spark RDD partition cache eviction implemented?
過去 Spark 會 OOM 很多Spark java.lang.OutOfMemoryError: Java heap space
我已經注意到,如果 RDD 無法放入內存,那么最近(對我來說,自從我從 0.7 開始以來,最近是 1.6+)版本的 Spark 不會拋出 OOM。 相反,RDD 分區被逐出,因此需要重新計算它們。
我想知道是哪個版本的 Spark 進行了此更改?
我嘗試通讀了很多https://spark.apache.org/releases/,但找不到任何明確的內容。
我很確定它大約是 2.0,但找不到任何證據來證明它。
這個 Jira 似乎暗示它是在 1.6 https://issues.apache.org/jira/browse/SPARK-14289 中與統一內存管理一起實現的
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.