官网地址:
1 | https: //www .fluentd.org/
|
下载地址:
1 | https: //www .fluentd.org /download
|
Fluentd文档地址:
1 | https: //docs .fluentd.org /installation
|
Fluentd Bit文档地址:
1 | https: //docs .fluentbit.io /manual/
|
Fluentd 和 Fluent Bit:
Fluentd 和 Fluent Bit 的区别在于Fluent Bit 适用于对资源需求非常敏感的情况下且没有依赖,更节省资源只要450KB的内存就可运行,缺点是插件少,只负责收集和转发。Fluentd 内存需求约为40M,拥有更丰富的插件,支持大吞吐量,多输入并路由到不同的输出。
可以查考部署的yaml文件:
fluentd-es-ds.yaml
1 | https: //github .com /kubernetes/kubernetes/blob/master/cluster/addons/fluentd-elasticsearch/fluentd-es-ds .yaml
|
fluent-bit-ds.yaml
1 | https: //github .com /fluent/fluent-bit-kubernetes-logging/blob/0 .13-dev /output/kafka/fluent-bit-ds .yaml
|
安装前配置:
文件描述符:
1 2 3 4 5 6 | cat >> /etc/security/limits <<EOF
root soft nofile 65536
root hard nofile 65536
* soft nofile 65536
* hard nofile 65536
EOF
|
查看:
sysctl.conf
1 2 3 | cat >> /etc/sysctl .conf <<EOF
vm.max_map_count=655360
EOF
|
查看:
安装Fluentd:
导入gpg key:
1 | rpm -- import https: //packages .treasuredata.com /GPG-KEY-td-agent
|
配置yum源:
1 2 3 4 5 6 7 | cat > /etc/yum .repos.d /td .repo <<EOF
[treasuredata]
name=TreasureData
baseurl=http: //packages .treasuredata.com /3/redhat/ \$releasever/\$basearch
gpgcheck=1
gpgkey=https: //packages .treasuredata.com /GPG-KEY-td-agent
EOF
|
安装:
启动:
1 | systemctl start td-agent.service
|
测试:
1 2 3 | curl -X POST -d 'json={"json":"message"}' http: //localhost :8888 /debug . test
tail -f /var/log/td-agent/td-agent .log
|
配置:
source:定义输入,数据的来源,input方向。
match:定义输出,下一步的去向,如写入文件,或者发送到指定软件存储。output方向。
filter:定义过滤,也即事件处理流水线,一般在输入和输出之间运行,可减少字段,也可丰富信息。
system:系统级别的设置,如日志级别、进程名称。
label:定义一组操作,从而实现复用和内部路由。
@include:引入其他文件,和Java、python的import类似。
输出调试:
1 2 3 4 5 6 7 8 9 10 11 | < source >
@ type tail
path /var/log/nginx/access .log
pos_file /var/log/td-agent/nginx-access .log.pos
tag nginx.access
format nginx
< /source >
<match nginx.access>
@ type stdout
< /match >
|
收集nginx日志配置:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 | < source >
@ type tail
path /var/log/nginx/access .log #...or where you placed your Apache access log
pos_file /var/log/td-agent/nginx-access .log.pos # This is where you record file position
tag nginx.access
format nginx
< /source >
< source >
@ type tail
path /var/log/nginx/error .log
pos_file /var/log/td-agent/nginx-error .log.pos
tag nginx.error
format /^(?< time >[^ ]+ [^ ]+) \[(?<log_level>.*)\] (?<pid>\d*).(?<tid>[^:]*): (?<message>.*)$/
< /source >
<match nginx.*>
@ type elasticsearch
logstash_format true
host 172.31.18.133 # elasticsearch IP
port 9200
index_name fluentd-nginx
type_name fluentd-nginx
< /match >
|
检查配置文件:
1 | td-agent --dry-run -c td-agent.conf
|
tag
tag的用作:Fluentd 内部路由引擎的方向。
tag的使用:<match tag>、<filter tag>,如:<match nginx.web>、<filter nginx.*>
语法:
*:匹配单个 tag 部分
例:a.*,匹配 a.b,但不匹配 a 或者 a.b.c
**:匹配 0 或 多个 tag 部分
例:a.**,匹配 a、a.b 和 a.b.c
{X,Y,Z}:匹配 X、Y 或 Z,其中 X、Y 和 Z 是匹配模式。可以和 * 和 ** 模式组合使用
例 1:{a, b},匹配 a 和 b,但不匹配 c
例 2:a.{b,c}. 和 a.{b,c.*}
多模式:当多个模式列在一个 <match> 标签(由一个或多个空格分隔)内时,它匹配任何列出的模式。
例如:
<match a b>:匹配 a 和 b
<match a.** b.*>:匹配 a、a.b、a.b.c 和 b.d
过滤插件
record_transformer:
将收集来的信息通过增删改的方式来处理,也就是说这个插件可以将收集来的信息往里面增加字段、删除字段、修改字段。这个插件内核中自带不用安装。
增加字段:下面这段配置中向原有的字段中增加了hostname 和 tag 两个字段。
1 2 3 4 5 6 7 | <filter foo.bar>
@ type record_transformer
<record>
hostname "#{Socket.gethostname}" # ruby的语法
tag ${tag}
< /record >
< /filter >
|
由:
1 | { "message" : "hello world!" }
|
变为:
1 | { "message" : "hello world!" , "hostname" : "db001.internal.example.com" , "tag" : "foo.bar" }
|
用法二:可在配置里面搞点计算,使用Ruby的语法。
1 2 3 4 5 6 7 | <filter foo.bar>
@ type record_transformer
enable_ruby
<record>
avg ${record[ "total" ] / record[ "count" ]}
< /record >
< /filter >
|
由:
1 | { "total" :100, "count" :10}
|
变为:
1 | { "total" :100, "count" :10, "avg" : "10" }
|
用法三:将tag中的第二部分值加入字段中。
1 2 3 4 5 6 | <filter web.*> # *号匹配到的值
@ type record_transformer
<record>
service_name ${tag_parts[1]} # 将*号匹配到的值放在这个字段中
< /record >
< /filter >
|
由:
1 | { "user_id" :1, "status" : "ok" }
|
变为:
1 | { "user_id" :1, "status" : "ok" , "service_name" : "auth" }
|
基本使用语法:
如果输入的记录为:{"total":100, "count":10}
我们可以在<record>标签里面使用 record["total"]=100,record["count"]=10 来取值。还有其他的值time、hostname等。
<record>
field: ${record["total"] / record["count"]}
tag: ${tag}
hostname "#{Socket.gethostname}"
</record>
<record>里面的键值必须是新的字段。
标签tag的用法:
tag_parts[N] 标签的第N部分
tag_prefix[N] 从开始到N的部分
tag_suffix[N] 从N到结尾的部分
例:标签为 debug.my.app
tag_prefix[0] = debug
tag_prefix[1] = debug.my
tag_prefix[2] = debug.my.app
tag_suffix[0] = debug.my.app
tag_suffix[1] = my.app
tag_suffix[2] = app
其他参数:record是在filter指令内的
1 2 3 4 5 6 7 8 | <record>
enable_ruby false
auto_typecast false
renew_record false
renew_time_key nil
keep_keys nil
remove_keys nil
< /record >
|
parser:
解析器,解析日志,将日志格式化成json。
1 2 3 4 5 6 7 8 9 | <filter foo.bar>
@ type parser
key_name log
<parse>
@ type regexp
expression /^(?<host>[^ ]*) [^ ]* (?<user>[^ ]*) \[(?< time >[^\]]*)\] "(?<method>\S+)(?: +(?<path>[^ ]*) +\S*)?" (?<code>[^ ]*) (?<size>[^ ]*)$/
time_format %d/%b/%Y:%H:%M:%S %z
< /parse >
< /filter >
|
由:
1 2 3 4 | time :
injested time (depends on your input)
record:
{ "log" : "192.168.0.1 - - [05/Feb/2018:12:00:00 +0900] \"GET / HTTP/1.1\" 200 777" }
|
解析为:
1 2 3 4 | time
05 /Feb/2018 :12:00:00 +0900
record:
{ "host" : "192.168.0.1" , "user" : "-" , "method" : "GET" , "path" : "/" , "code" : "200" , "size" : "777" }
|