[英]spark.sql.shuffle.partitions of 200 default partitions conundrum
[英]new spark.sql.shuffle.partitions value not used after checkpointing
我有一個Spark的結構化流應用程序,該應用程序具有檢查點,可以在拼花中寫入輸出,並使用默認的spark.sql.shuffle.partitions =200。我需要更改shuffle分區,但不使用新值。 以下是重新啟動應用程序后檢查點偏移的內容:
{"batchWatermarkMs":1520054221000,"batchTimestampMs":1520054720003,"conf":{"spark.sql.shuffle.partitions":"200"}}
我是否需要在代碼中設置分區數,而不是使用--conf設置?
該編號從檢查點恢復,只有在刪除檢查點數據並以“干凈的狀態”重新啟動后,該數字才會更改。
這是有道理的,因為如果您有檢查點數據,Spark需要知道從多少個分區目錄中恢復以前的狀態。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.