![](/img/trans.png)
[英]In a scala spark job, running in yarn, how can I fail the job so that yarn shows a Failed status
[英]Mark Spark Job as Failed in Yarn UI
该应用程序是复杂生态系统的一部分,我们使用Yarn Rest Api跟踪所有工作的状态。
现在针对某些特定的业务场景,我们需要将Spark Job标记为失败,但是我已陷入陷阱状态,因为无论我在spark job中引发错误/异常或System.exit(123)作业被标记为已完成在纱线,最终状态为成功。
使用spark-submit使用jar发射火花作业。
object Execute {
def main(args: Array[String]) {
val sc = new SparkContext(sparkConf)
if(businessException needs to be raised)
//What to do???
}
}
我在火花工作中尝试过的事情:
希望有人可以告诉我如何将火花作业标记为纱线UI失败。
别介意。 纱线的火花应用报告无论如何都是不稳定的,从Jira上的多个漏洞中可以看出,这表明Yarn有时将成功的火花作业标记为失败,反之亦然。
我最终制作了自己的数据库表来跟踪最终状态(错误,成功等),这是根据条件从spark作业更新的。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.