簡體   English   中英

負載下Spark UI中的負活動任務(最大執行程序失敗數)

[英]Negative Active Tasks in Spark UI under load (Max number of executor failed)

在此處輸入圖片說明 我正在CDH 5.5.0中的Spark 1.5.0上運行Spark Streaming應用程序。 在日志中,我看到執行器的最大數量失敗。 我找不到根本原因。

我們隔兩天間歇性地收到此問題。最終應用程序狀態:失敗,退出代碼:11(原因:執行程序失敗的最大次數)

這是一個錯誤,您可以跟蹤以下票證中的更改:

編輯:關於此消息“最大執行者失敗數量” spark.yarn.max.executor.failures具有參數spark.yarn.max.executor.failures 默認情況下,執行程序的數量為2倍,最少為3個。如果失敗次數超過此參數中設置的失敗次數,則應用程序將被殺死。

您可以更改此參數的值。 但是我會擔心為什么您有那么多執行器失敗-也許您的內存太少了? 還是代碼錯誤? 沒有代碼和/或上下文信息,我們將無法協助調查潛在的錯誤

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM