簡體   English   中英

檢查點后未使用新的spark.sql.shuffle.partitions值

[英]new spark.sql.shuffle.partitions value not used after checkpointing

我有一個Spark的結構化流應用程序,該應用程序具有檢查點,可以在拼花中寫入輸出,並使用默認的spark.sql.shuffle.partitions =200。我需要更改shuffle分區,但不使用新值。 以下是重新啟動應用程序后檢查點偏移的內容:

{"batchWatermarkMs":1520054221000,"batchTimestampMs":1520054720003,"conf":{"spark.sql.shuffle.partitions":"200"}}

我是否需要在代碼中設置分區數,而不是使用--conf設置?

該編號從檢查點恢復,只有在刪除檢查點數據並以“干凈的狀態”重新啟動后,該數字才會更改。

這是有道理的,因為如果您有檢查點數據,Spark需要知道從多少個分區目錄中恢復以前的狀態。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM