在分布式日志服务技术栈ELK中,logstash承担着日志解析的工作,将接收到的日志按照某些规则解析到Elasticsearch对应的不同field中。本文将介绍logstash的一些常用插件,以及对插件的离线打包,避免每次手动安装插件。




logstash收集mysql慢查询日志 logstash收集多台服务器日志_logstash接收多台服务器日志

logstash



本文主要分为4部分:

  1. 插件的离线打包
  2. input插件
  3. filter插件
  4. output插件

在使用插件之前,我们先明确一个概念:事件。Logstash 每读取一次数据的行为叫做事件。

1.插件的离线打包

在实际生产环境中,logstash一般需要部署多个实例,会在多台机器上进行部署,如果每次安装logstash更新都需要手动更新一遍插件的话,运维成本是非常高的。因此可以对用到的插件进行离线打包,多次复用。以制作logstash-offline-plugins-x.x.x.zip为例:

首先,需要在一台已经安装了logstash的机器上,为logstash安装好所需要的插件;

然后再将插件进行导出,具体命令示例如下:

bin/logstash-plugin update logstash-filter-mutate bin/logstash-plugin install logstash-filter-json_encode bin/logstash-plugin prepare-offline-pack logstash-filter-mutate logstash-filter-json_encode

参考elastic的官方文档:

https://www.elastic.co/guide/en/logstash/current/offline-plugins.html

在安装logstash时可以通过如下命令进行插件包的安装:

bin/logstash-plugin install file://$(pwd)/logstash-offline-plugins.zip

安装插件后要及时观察logstash的打印日志,避免因为插件版本冲突导致的logstash启动失败的问题。

2.input插件

input插件允许一个特定的事件源可以读取到 Logstash 管道中,配置在 input {} 中,且可以设置多个。可以将input、filter和output三部分的配置放到不同的配置文件中。input的配置放置在input.conf文件中。以beats插件为例:

input { beats { port => 5044 client_inactivity_timeout => 600 }}

需要注意的是,在6.4版本以上的beats配置中,多了ssl_peer_metadata,可以拿到证书里的meta信息,可以便于我们后续在logstash上做一些鉴权校验。

除了beats插件,inputs类型插件还有很多种,主要列举如下:

  • elasticsearch
  • file
  • log4j
  • kafka

更多插件配置介绍参考官网

https://www.elastic.co/guide/en/logstash/current/input-plugins.html

3.filter插件

filter插件就比较多了。日志接入之后要进行日志的规则匹配、过滤等操作,配置filter是必不可少的。最长用到的filter插件有grok、date、mutate、geoip、split、uuid、json、jsonencode等。




logstash收集mysql慢查询日志 logstash收集多台服务器日志_离线_02

filter



3.1 grok插件

Grok是logstash最常用的过滤插件,grok是通过系统预定义的正则表达式或者通过自己定义正则表达式来匹配日志中的各个值,安装logstash后默认会有一些常用的日志匹配正则,在使用时自己可以根据日志格式或者对匹配正则进行调整或者直接调用。如果自己想在其他目录定义正则规则匹配日志,在使用时需要指定正则的路径。

对于以下一行日志:

55.3.244.1 GET /index.html 15824 0.043

使用如下的规则:

%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}

grok配置示例如下:

filter { grok { match => { "message" => "%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}" } }}

那么这行日志经过grok之后会得到以下的field:

client: 55.3.244.1method: GETrequest: /index.htmlbytes: 15824duration: 0.043

常用的配置选项:

  • match:用来对字段的模式进行匹配;
  • patterns_dir:用来指定规则的匹配路劲,如果使用logstash自定义的规则时,不需要写此参数。Patterns_dir可以同时制定多个存放过滤规则的目录。语法格式:patterns_dir => [“/ opt / logstash / patterns”,“/ opt / logstash / extra_patterns”];
  • remove_field:如果匹配到某个”日志字段,则将匹配的这个日志字段从这条日志中删除;

Grok过滤正则规则可以根据自己的日志格式自行编写,在编写grok过滤规则时容易出错,此时可以使用grokdebug网站对自己的日志及编写的正则规则进行调试,grokdebug网址为(https://grokdebug.herokuapp.com/)。

3.2 date插件

date用于解析字段中的日期,然后使用该日期或时间戳作为事件的logstash时间戳。

对于date插件的介绍,在(https://www.elastic.co/guide/en/logstash/6.4/plugins-filters-date.html)中有非常详细的介绍。我来列举一个实际配置过程中遇到的示例:

对于给定的时间格式:

2019-01-10T18:11:28.699+08:00

需要进行配置的pattern如下:

date { match => ["[@metadata][log_timestamp]