[英]how to get aggregated logs from running Spark application
我有一個連續運行的Spark應用程序,它從Kafka讀取msgs並進行一些處理。 有沒有一種方法可以匯總“應用程序日志”?
AFAIK,僅當SparkContext被銷毀時才發生日志聚合。
您是否嘗試過將標准YARN命令用於日志?
紗線日志-applicationId some-id
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.