[英]logstash: how to include input file line number
我正在尝试创建一种导航日志文件的方法,我需要的主要功能是:
x
线到y
线的分页。 现在,我正在检查Logstash,它对于我的第一个功能(搜索)看起来很不错,但对于第二个功能来说并没有那么多。 我当时的想法是我可以某种方式索引文件行号以及每条记录的日志信息,但是我似乎找不到办法。
是否有某种Logstash过滤器可以做到这一点? 或Filebeat处理器? 我不能使它工作。
我当时在想,也许我可以为所有进程创建一种方法,以便使用处理过的信息登录数据库,但这也是不可能的(或者非常困难),因为日志处理程序也不知道当前的日志行是什么。
最后,我所能做的就是,通过一种服务(通过服务)对我的日志文件进行分页的方法是实际打开它,导航到特定的行并在不是很好的服务中显示它,因为该文件可能很大,并且我已经将它编入Elasticsearch(使用Logstash)。
我当前的配置非常简单:
文件拍
filebeat.prospectors:
- type: log
paths:
- /path/of/logs/*.log
output.logstash:
hosts: ["localhost:5044"]
Logstash
input {
beats {
port => "5044"
}
}
output {
elasticsearch {
hosts => [ "localhost:9200" ]
}
}
例如,现在我正在获得类似的商品:
{
"beat": {
"hostname": "my.local",
"name": "my.local",
"version": "6.2.2"
},
"@timestamp": "2018-02-26T04:25:16.832Z",
"host": "my.local",
"tags": [
"beats_input_codec_plain_applied",
],
"prospector": {
"type": "log"
},
"@version": "1",
"message": "2018-02-25 22:37:55 [mylibrary] INFO: this is an example log line",
"source": "/path/of/logs/example.log",
"offset": 1124
}
如果我能以某种方式在该项目中包含line_number: 1
类的字段,那将非常好,因为我可以使用Elasticsearch过滤器实际浏览整个日志。
如果你们对存储我的日志(和导航)的不同方式有想法,请也告诉我
日志文件是您生成的吗? 还是可以更改日志结构? 然后,您可以添加一个计数器作为前缀,并使用logstash过滤掉它。
例如
12345 2018-02-25 22:37:55 [mylibrary] INFO: this is an example log line
您的过滤器必须如下所示:
filter {
grok {
match => {"message" => "%{INT:count} %{GREEDYDATA:message}"
overwrite => ["message"]
}
}
将创建新的字段“ count”。 然后,您可以将其用于您的目的。
首先,让我给出Filebeat尚无行号字段的可能主要原因。 当Filebeat重新开始读文件(如重启后),它的fseek
从记录的最后一个偏移量简历。 如果它必须报告行号,则要么需要将此状态存储在其注册表中,要么需要重新读取文件并计算换行符直到偏移量。
如果要提供允许您对Elasticsearch支持的日志进行分页的服务,则可以对查询文件使用滚动 API。 您必须按@timestamp
然后按offset
对结果进行排序 。 您的服务将使用滚动查询来获取结果的第一页。
POST /filebeat-*/_search?scroll=1m
{
"size": 10,
"query": {
"match": {
"source": "/var/log/messages"
}
},
"sort": [
{
"@timestamp": {
"order": "asc"
}
},
{
"offset": "asc"
}
]
}
然后,要获取所有将来的页面,请使用从第一个查询返回的scroll_id
。
POST /_search/scroll
{
"scroll" : "1m",
"scroll_id" : "DnF1ZXJ5VGhlbkZldGNoBwAAAAAAPXDOFk12OEYw="
}
这将为您提供给定文件名的所有日志数据,甚至跨轮循对其进行跟踪。 如果行号很关键,则可以通过对从offset == 0
的第一个事件开始的事件进行计数来合成它们,但是我避免了这一点,因为它非常容易出错,尤其是当您添加任何过滤或多行分组时。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.