简体   繁体   English

将grok过滤器应用于已经存储在elasticsearch中的日志

[英]Apply grok filters to logs already stored in elasticsearch

I'm using syslog->logstash->elasticsearch->kibana to visualize my logs. 我正在使用syslog->logstash->elasticsearch->kibana来可视化我的日志。 The stack is working fine so far. 到目前为止,堆栈工作正常。 I have already a few thousand logs in elasticsearch. 我在Elasticsearch中已经有几千条日志了。 Now I decided to change some grok filters. 现在,我决定更改一些grok过滤器。 Is there a way to process all logs again to be matched by the new filters? 有没有办法再次处理所有日志以使其与新过滤器匹配?

I can think of somehow exporting the database and adding that as a new input to logstash, but this would be kind of complicated. 我可以想到以某种方式导出数据库并将其添加为logstash的新输入,但这会有些复杂。 I'm looking for an easy one click solution, because I'm likely going to change some filters in the future. 我正在寻找一种简单的一键式解决方案,因为将来可能会更改一些过滤器。 I could not find any easy solution so far. 到目前为止,我找不到任何简单的解决方案。 Any help appreciated. 任何帮助表示赞赏。

Use elasticsearch 5.0. 使用elasticsearch 5.0。 Then you could run the logs through an ingest pipeline. 然后,您可以通过ingest管道运行日志。

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM