服务治理的一个重要任务是感知服务节点变更,完成服务自动注册及异常节点的自动摘除。这就需要服务治理平台能够:及时、准确的感知service节点的健康状况。
方案概述
Nginx 提供了三种HTTP服务健康检查方案供用户选择:
- TCP层默认检查方案:定时与后端服务建立一条tcp连接,链接建立成功则认为服务节点是健康的。
- HTTP层默认检查方案:TCP层检查有一定的局限性:
- 很多HTTP服务是带状态的,端口处于listen状态并不能代表服务已经完成预热;
- 不能真实反映服务内部处理逻辑是否产生拥堵。
- 这时可以选择http层健康检查,会向服务发送一个http请求GET / HTTP/1.0,返回状态是2xx或3xx时认为后端服务正常。
- 自定义方案:可根据下文描述自定义检查方案。
配置参数详解
一个常用的健康检查配置如下:
1.check fall=3 interval=3000 rise=2 timeout=2000 type=http;check_http_expect_alive http_2xx http_3xx ;check_http_send "GET /checkAlive HTTP/1.0" ;
下面针对每个配置参数,进行详细介绍。
check:
check 字段参数如下:
1 Syntax: check interval=milliseconds [fall=count] [rise=count] [timeout=milliseconds] [default_down=true|false] [type=tcp|http|ssl_hello|mysql|ajp] [port=check_port]2 Default: 如果没有配置参数,默认值是:interval=30000 fall=5 rise=2 timeout=1000 default_down=true type=tcp
check 字段各个参数含义如下:
- interval:向后端发送的健康检查包的间隔。
- fall(fall_count): 如果连续失败次数达到fall_count,服务器就被认为是down。
- rise(rise_count): 如果连续成功次数达到rise_count,服务器就被认为是up。
- timeout: 后端健康请求的超时时间。
- default_down: 设定初始时服务器的状态,如果是true,就说明默认是down的,如果是false,就是up的。默认值是true,也就是一开始服务器认为是不可用,要等健康检查包达到一定成功次数以后才会被认为是健康的。
- type:健康检查包的类型,现在支持以下多种类型
- tcp:简单的tcp连接,如果连接成功,就说明后端正常。
- ssl_hello:发送一个初始的SSL hello包并接受服务器的SSL hello包。
- http:发送HTTP请求,通过后端的回复包的状态来判断后端是否存活。
- mysql: 向mysql服务器连接,通过接收服务器的greeting包来判断后端是否存活。
- ajp:向后端发送AJP协议的Cping包,通过接收Cpong包来判断后端是否存活。
- port: 指定后端服务器的检查端口。可以指定不同于真实服务的后端服务器的端口,比如后端提供的是443端口的应用,你可以去检查80端口的状态来判断后端健康状况。默认是0,表示跟后端server提供真实服务的端口一样。
check_http_expect_alive:
check_http_expect_alive 指定主动健康检查时HTTP回复的成功状态:
1 Syntax: check_http_expect_alive [ http_2xx | http_3xx | http_4xx | http_5xx ]2 Default: http_2xx | http_3xx
check_http_send:
check_http_send 配置http健康检查包发送的请求内容
为了减少传输数据量,推荐采用”HEAD”方法。当采用长连接进行健康检查时,需在该指令中添加keep-alive请求头,如:”HEAD / HTTP/1.1Connection: keep-alive”。同时,在采用”GET”方法的情况下,请求uri的size不宜过大,确保可以在1个interval内传输完成,否则会被健康检查模块视为后端服务器或网络异常。
1 Syntax: check_http_send http_packet2 Default: "GET / HTTP/1.0"
完整示例
完整示例,如下:
1 http { 2 upstream cluster1 { 3 # simple round-robin 4 server 192.168.0.1:80;5 server 192.168.0.2:80; 6 check interval=3000 rise=2 fall=5 timeout=1000 type=http;7 check_http_send "HEAD / HTTP/1.0";8 check_http_expect_alive http_2xx http_3xx;9 } 10 upstream cluster2 {11 # simple round-robin12 server 192.168.0.3:80; 13 server 192.168.0.4:80; 14 check interval=3000 rise=2 fall=5 timeout=1000 type=http; 15 check_keepalive_requests 100; 16 check_http_send "HEAD / HTTP/1.1Connection: keep-alive"; 17 check_http_expect_alive http_2xx http_3xx;18 } 19 server { 20 listen 80; 21 location /1 { 22 proxy_pass http://cluster1; 23 } 24 location /2 { 25 proxy_pass http://cluster2; 26 } 27 location /status { 28 check_status; 29 access_log off; 30 allow SOME.IP.ADD.RESS; 31 deny all; 32 } 33 }34 }35