ELK Stack企业日志平台介绍

ELK是由 Elasticsearch(搜索引擎)、Logstash(日志收集)和Kibana(可视化平台) 三部分组件组成。
本文中还引入了filebeat工具,相对于logstash,filebeat的资源占用率更低。

ELK Stack企业日志平台安装部署

本文采用的ELk镜像为 https://hub.docker.com/ 提供的官方镜像,也有很多非官方的集成好的elk镜像,部署方式大同小异,大家可以自行研究。部署时尽量采用相同版本的镜像,已避免不必要的报错。

一、Docker 安装 Elasticsearch

官网镜像地址:https://hub.docker.com/_/elasticsearch

docker pull elasticsearch:7.1.1
[root@k8s-node3 ~]# docker images | grep elasticsearch
elasticsearch                        7.1.1               b0e9f9f047e6        6 months ago        894MB

#创建自定义的网络(用于连接到连接到同一网络的其他服务(例如Kibana)

docker network create elk

#查看docker网络

[root@k8s-node3 ~]# docker network ls
NETWORK ID          NAME                DRIVER              SCOPE
87080f2eb5a4        bridge              bridge              local
6835f763c78c        elk                 bridge              local
31359fc68c80        host                host                local
3890144a8de2        none                null                local

#运行 elasticsearch

docker run -d --name elasticsearch --net elk -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" elasticsearch:7.1.1

#如果提示docker WARNING: IPv4 forwarding is disabled.
解决方法:
#在宿主机上面执行:

echo “net.ipv4.ip_forward=1” >> /usr/lib/sysctl.d/00-system.conf

#重启docker服务

systemctl restart docker

查看容器状态

[root@k8s-node3 ~]# docker ps | grep elasticsearch
ab49020cb285        elasticsearch:7.1.1   "/usr/local/bin/dock…"   20 hours ago        Up 19 hours         0.0.0.0:9200->9200/tcp, 0.0.0.0:9300->9300/tcp   elasticsearch

#检测 elasticsearch 是否启动成功

[root@k8s-node3 ~]# curl 127.0.0.1:9200
{
  "name" : "ab49020cb285",
  "cluster_name" : "docker-cluster",
  "cluster_uuid" : "iATljVk3S7SDk1tp7p8HPg",
  "version" : {
    "number" : "7.1.1",
    "build_flavor" : "default",
    "build_type" : "docker",
    "build_hash" : "7a013de",
    "build_date" : "2019-05-23T14:04:00.380842Z",
    "build_snapshot" : false,
    "lucene_version" : "8.0.0",
    "minimum_wire_compatibility_version" : "6.8.0",
    "minimum_index_compatibility_version" : "6.0.0-beta1"
  },
  "tagline" : "You Know, for Search"
}

Elasticsearch 安装启动完成

二、Docker 安装 Kibana

官网镜像地址:https://hub.docker.com/_/kibana

使用和 elasticsearch 相同版本镜像 7.1.1 (不一样可能会出现问题)

下载镜像 查看镜像

docker pull kibana:7.1.1
[root@k8s-node3 ~]# docker images | grep kibana
kibana                               7.1.1               67f17df6ca3e        6 months ago        746MB

注意:在本例中,Kibana使用默认配置,并希望连接到正在运行的Elasticsearch实例http://localhost:9200

运行 Kibana

docker run -d --name kibana --net elk -p 5601:5601 kibana:7.1.1

查看容器启动状态

[root@k8s-node3 ~]# docker ps | grep kibana
c25a6db6d517        kibana:7.1.1          "/usr/local/bin/kiba…"   20 hours ago        Up 20 hours         0.0.0.0:5601->5601/tcp                           kibana

访问 http://ip:5601 (启动可能会较慢,如失败等几秒再尝试刷新一下)

 

docker debug 级别日志 docker service 日志_elasticsearch

 

 

Kibana 安装启动完成

三、Docker 安装 Logstash

官网镜像地址:https://hub.docker.com/_/logstash

使用同版本镜像 7.1.1

下载镜像 查看镜像

docker pull logstash:7.1.1
[root@k8s-node3 ~]# docker images | grep logstash
logstash                             7.1.1               b0cb1543380d        6 months ago        847MB

我在工作目录建立一个 docker 目录 并在里面创建了 logstash 目录,用来存放所有配置

[root@k8s-node3 logstash]# pwd
/root/logstash
[root@k8s-node3 logstash]# ls
conf.d  logstash.yml

logstash.yml (文件内容)

[root@k8s-node3 logstash]# cat logstash.yml 
path.config: /usr/share/logstash/conf.d/*.conf
path.logs: /var/log/logstash

下面是我用来测试的收集日志的配置文件

[root@k8s-node3 conf.d]# pwd
/root/logstash/conf.d
[root@k8s-node3 conf.d]# ls
test.conf
[root@k8s-node3 conf.d]# cat test.conf 
input {
   file {
        path => ["/usr/share/logstash/log/test.info.log"]
        type => "test-info"
        start_position => "beginning"
   }
   file {
        path => ["/usr/share/logstash/log/test.error.log"]
        type => "test-error"
        start_position => "beginning"
   }
}
filter {
    date {
       match => ["timestamp","yyyy-MM-dd HH:mm:ss"]
       remove_field => "timestamp"
    }
}
output {
    if [type] == "test-info" {
         elasticsearch {
            hosts  => ["elasticsearch:9200"]
            index  => "certification-info-%{+YYYY.MM.dd}"
         }
    }
    if [type] == "test-error" {
         elasticsearch {
            hosts  => ["elasticsearch:9200"]
            index  => "certification-error-%{+YYYY.MM.dd}"
         }
    }
}

启动 Logstash

记得映射上面两个目录 {path}

docker run -it -d -p 5044:5044 --name logstash --net elk -v /root/logstash/logstash.yml:/usr/share/logstash/config/logstash.yml -v /root/logstash/conf.d/:/usr/share/logstash/conf.d/ logstash:7.1.1

查看容器运行状态 

[root@k8s-node3 conf.d]# docker ps | grep logstash
fbc97c3ec892        logstash:7.1.1        "/usr/local/bin/dock…"   20 hours ago        Up 17 hours         0.0.0.0:5044->5044/tcp, 9600/tcp                 logstash

启动成功

此时,登录kibana平台,可以看到收集的数据

docker debug 级别日志 docker service 日志_docker debug 级别日志_02

 

 

ps:这个收集的日志,是我进入到/usr/share/logstash/log/目录下创建的test.info.log和test.erro.log。若要收集宿主机的某个日志,只要启动容器时将宿主机上的日志路径映射到/usr/share/logstash/log/目录即可。/usr/share/logstash/log/目录并非固定,而是根据/root/logstash/conf.d/*.conf的配置文件内容而定。

四、Docker 安装 Filebeat

官网镜像地址:https://hub.docker.com/_/filebeat

使用同版本镜像 7.1.1

下载镜像 查看镜像

docker pull store/elastic/filebeat:7.1.1
[root@k8s-node3 conf.d]# docker images |grep filebeat
store/elastic/filebeat               7.1.1               0bd69a03e199        6 months ago        288MB

下载默认官方配置文件 (暂时在当前目录创建一个 filebeat 目录 用来放 filebeat 配置文件)

curl -L -O https://raw.githubusercontent.com/elastic/beats/7.1/deploy/docker/filebeat.docker.yml

打开配置文件 

vim filebeat.docker.yml

增加下面的配置 (收集 .log 数据 把数据发送到当前网络5044端口 (logstash 端口) )
这个地方的 .log 要保证有几条测试的内容

[root@k8s-node3 ~]# cat filebeat.docker.yml 
#filebeat.config:
#modules:
#path: ${path.config}/modules.d/*.yml
#reload.enabled: false
#filebeat.autodiscover:
#providers:
#- type: docker
#hints.enabled: true
#processors:
#- add_cloud_metadata: ~
#output.elasticsearch:
#hosts: '${ELASTICSEARCH_HOSTS:elasticsearch:9200}'
#username: '${ELASTICSEARCH_USERNAME:}'
#password: '${ELASTICSEARCH_PASSWORD:}'

filebeat.inputs:
- type: log
  enabled: true
  paths:
  - /var/log/test911/*.log
 
output.logstash:
  hosts: ['192.168.31.193:5044']

运行Filebeat

docker run --name filebeat --user=root -d   --volume="/var/log/test911:/var/log/test911/" --volume="/root/filebeat.docker.yml:/usr/share/filebeat/filebeat.yml:ro"  store/elastic/filebeat:7.1.1

查看容器启动状态 

[root@k8s-node3 ~]# docker ps | grep filebeat
40208dfe0dfe        store/elastic/filebeat:7.1.1   "/usr/local/bin/dock…"   3 hours ago         Up 8 seconds

启动成功

使用filebeat收集日志,需要对logstash的配置文件进行修改,修改如下:

[root@k8s-node3 conf.d]# pwd
/root/logstash/conf.d
[root@k8s-node3 conf.d]# ls
test.conf
[root@k8s-node3 conf.d]# cat test.conf 
input {
    beats {
    port => 5044
    codec => "json"
    }
}

output {
  elasticsearch { hosts => ["elasticsearch:9200"] }
  stdout { codec => rubydebug }
}

现在去 Kibana 查看数据,已经有数据了

docker debug 级别日志 docker service 日志_docker debug 级别日志_03

 

 

若想要收集其他服务器上的日志,只需要在其他服务上部署filebeat即可,前提是要保证网络互通,要能访问logstash的5044端口。

大家需要按照自己的需求修改相应的配置!