簡體   English   中英

如何從運行的Spark應用程序獲取聚合日志

[英]how to get aggregated logs from running Spark application

我有一個連續運行的Spark應用程序,它從Kafka讀取msgs並進行一些處理。 有沒有一種方法可以匯總“應用程序日志”?

AFAIK,僅當SparkContext被銷毀時才發生日志聚合。

您是否嘗試過將標准YARN命令用於日志?

紗線日志-applicationId some-id

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM