服务治理的一个重要任务是感知服务节点变更,完成服务自动注册及异常节点的自动摘除。这就需要服务治理平台能够:及时、准确的感知service节点的健康状况。

方案概述

Nginx 提供了三种HTTP服务健康检查方案供用户选择:

  1. TCP层默认检查方案:定时与后端服务建立一条tcp连接,链接建立成功则认为服务节点是健康的。
  2. HTTP层默认检查方案:TCP层检查有一定的局限性:
  1. 很多HTTP服务是带状态的,端口处于listen状态并不能代表服务已经完成预热;
  2. 不能真实反映服务内部处理逻辑是否产生拥堵。
  3. 这时可以选择http层健康检查,会向服务发送一个http请求GET / HTTP/1.0,返回状态是2xx或3xx时认为后端服务正常。
  1. 自定义方案:可根据下文描述自定义检查方案。

配置参数详解

一个常用的健康检查配置如下:

1.check fall=3 interval=3000 rise=2 timeout=2000 type=http;check_http_expect_alive http_2xx http_3xx ;check_http_send "GET /checkAlive HTTP/1.0" ;

下面针对每个配置参数,进行详细介绍。

check:

check 字段参数如下:

1 Syntax: check interval=milliseconds [fall=count] [rise=count] [timeout=milliseconds] [default_down=true|false] [type=tcp|http|ssl_hello|mysql|ajp] [port=check_port]2 Default: 如果没有配置参数,默认值是:interval=30000 fall=5 rise=2 timeout=1000 default_down=true type=tcp

check 字段各个参数含义如下:

  • interval:向后端发送的健康检查包的间隔。
  • fall(fall_count): 如果连续失败次数达到fall_count,服务器就被认为是down。
  • rise(rise_count): 如果连续成功次数达到rise_count,服务器就被认为是up。
  • timeout: 后端健康请求的超时时间。
  • default_down: 设定初始时服务器的状态,如果是true,就说明默认是down的,如果是false,就是up的。默认值是true,也就是一开始服务器认为是不可用,要等健康检查包达到一定成功次数以后才会被认为是健康的。
  • type:健康检查包的类型,现在支持以下多种类型
  • tcp:简单的tcp连接,如果连接成功,就说明后端正常。
  • ssl_hello:发送一个初始的SSL hello包并接受服务器的SSL hello包。
  • http:发送HTTP请求,通过后端的回复包的状态来判断后端是否存活。
  • mysql: 向mysql服务器连接,通过接收服务器的greeting包来判断后端是否存活。
  • ajp:向后端发送AJP协议的Cping包,通过接收Cpong包来判断后端是否存活。
  • port: 指定后端服务器的检查端口。可以指定不同于真实服务的后端服务器的端口,比如后端提供的是443端口的应用,你可以去检查80端口的状态来判断后端健康状况。默认是0,表示跟后端server提供真实服务的端口一样。

check_http_expect_alive:

check_http_expect_alive 指定主动健康检查时HTTP回复的成功状态:

1 Syntax: check_http_expect_alive [ http_2xx | http_3xx | http_4xx | http_5xx ]2 Default: http_2xx | http_3xx

check_http_send:

check_http_send 配置http健康检查包发送的请求内容

为了减少传输数据量,推荐采用”HEAD”方法。当采用长连接进行健康检查时,需在该指令中添加keep-alive请求头,如:”HEAD / HTTP/1.1Connection: keep-alive”。同时,在采用”GET”方法的情况下,请求uri的size不宜过大,确保可以在1个interval内传输完成,否则会被健康检查模块视为后端服务器或网络异常。

1 Syntax: check_http_send http_packet2 Default: "GET / HTTP/1.0"

完整示例

完整示例,如下:

1 http {   2 upstream cluster1 { 3 # simple round-robin 4 server 192.168.0.1:80;5 server 192.168.0.2:80; 6 check interval=3000 rise=2 fall=5 timeout=1000 type=http;7 check_http_send "HEAD / HTTP/1.0";8 check_http_expect_alive http_2xx http_3xx;9 } 10 upstream cluster2 {11 # simple round-robin12 server 192.168.0.3:80;       13 server 192.168.0.4:80;  14 check interval=3000 rise=2 fall=5 timeout=1000 type=http; 15 check_keepalive_requests 100;   16 check_http_send "HEAD / HTTP/1.1Connection: keep-alive";  17 check_http_expect_alive http_2xx http_3xx;18 }  19 server { 20 listen 80; 21 location /1 { 22 proxy_pass http://cluster1; 23 }    24 location /2 {   25 proxy_pass http://cluster2;   26 }      27 location /status {    28 check_status;    29 access_log   off;     30 allow SOME.IP.ADD.RESS;    31 deny all; 32 } 33 }34 }35