ELK+Kafka+Beats实现海量日志收集平台(一)

 

一、应用场景

  利用ELK+Kafka+Beats来实现一个统一日志平台,它是一款针对大规模分布式系统日志的统一采集、

存储、分析的APM 工具。在分布式系统中,有大量的服务部署在不通的服务器上,客服端的一个请求查

询,就可能会调用后端多个服务,每个服务之间可能会相互调用或一个服务又会调用其它服务,最终才

将请求的结果返回,汇总展现到前端页面上。假若这其中的某个环节发生异常,开发运维人员很难准确

定位这个问题到底是由哪个服务调用造成的, 统一日志平台的作用就是追踪每个请求的完整调用链路,

收集调用链路上每个服务的性能、日志数据,方便开发运维人员能够快速发现问题,定位问题。

  统一日志平台通过采集模块、传输模块、存储模块、分析模块实现日志数据的统一采集、存储和分

析,结构图如下:

          

统一日志系统优点 统一日志收集_数据

二、实现原理

  “ ELK”是三个开源项目的缩写:Elasticsearch,Logstash和Kibana。也称ELK Stack,能够可靠,安

全地从任何来源以任何格式获取数据,然后进行实时搜索,分析和可视化。Elasticsearch是搜索和分析引

擎,开源的,分布式,RESTful,基于JSON的搜索引擎。它易于使用,可扩展且灵活。Logstash是服务器

端的数据处理管道,它同时从多个源中提取数据,进行转换,然后将其发送到类似Elasticsearch的“存储”

中。Kibana允许用户在Elasticsearch中使用图表将数据可视化。

        

统一日志系统优点 统一日志收集_数据_02

  Beats 是一个免费且开放的平台,集合了多种单一用途数据采集器。它们从成百上千或成千上万台机

器和系统向 Logstash 或 Elasticsearch 发送数据。Beats可以将数据直接发送到Elasticsearch或通过 Log-

stash 发送,然后在Logstash中可以进一步处理和过滤数据,然后再在Kibana中进行可视化 。

Beats架构图如下:

              

统一日志系统优点 统一日志收集_Elastic_03

  要实现海量日志数据收集分析,首先要解决的问题就是如何处理海量的数据信息,本案例中利用Kafka

结合Beats、Logstash来实现分布式消息队列平台,其中采用Beats来采集日志数据,也就相当于是Kafka消

息队列中的Producer来生产消息,然后将消息发送到Kafka(相当于消息队列的Broker),然后将日志数据

发送到Logstash(扮演消费者-Consumer)进行分析过滤等处理。再把从Logstash中处理之后的数据存储到

Elasticsearch中,最终通过Kibana来可视化日志数据。

该过程架构图如下:

    

统一日志系统优点 统一日志收集_Elastic_04

   其中Beats主要有以下几种:

        Filebeat      : 用于收集日志文件

        Winlogbeat : 用于收集Windows事件日志

        Metricbeat  : 用于指标

        Packetbeat : 用于收集网络流量数据

  由于我们要采集日志来进行分析管理,所以我们使用Beats中的filebeat来进行日志采集

  通过上面的架构思路,大致清楚了日志收集分析显示到底要干什么事儿?接下来再通过下图进一步将

该流程具体梳理下

       

统一日志系统优点 统一日志收集_elastic_05

  本案例通过编写一个简单的SpringBoot工程来生产日志数据,也就是图中的Log4j2 Appender来作为

filebeats的数据源(filebeats要从哪儿获取日志文件),使用Log4j2来进行日志记录而不是Spring自带的

Slf4j记录是因为Log4j2的性能要优于Slf4j。图中把生成的日志分为了all.log、error.log 两类日志,all.log用

于记录应用服务产生的所有日志记录,error.log主要用于记录warn、error两类的错误日志。error.log日志

只有当应用服务报错的时候才进行记录,这样以便日后进行分析告警。


文中若有不足之处,麻烦联系我及时修改,谢谢!!