[英]high availability of spark driver
在紗線簇模式下運行spark應用程序,我的驅動程序似乎已重新啟動。 這導致從頭開始重新處理所有數據(我正在編寫幾個表並哈希一些數據,某些表已經完成)。
有沒有辦法防止這種情況發生並為驅動程序引入高可用性?
驅動程序已重新啟動的事實是Spark對HA的解釋。 發生錯誤時觸發重新啟動。
您可以使用以下屬性來控制嘗試次數
spark.yarn.maxAppAttempts
將其傳遞給作業配置文件中的hadoop配置設置。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.