一,健康检查种类

在kubernetes中,经常会看到健康检查相关的配置。一般有两种健康检查方式:存活性健康检查和可用性健康检查,也叫做存活探针(livenessProbe)或者就绪探针(readinessProbe)。
livenessProbe探测应用是否处于健康状态,如果不健康会杀掉容器并根据容器策略决定是否重启容器。
readinessProbe探测应用是否就绪并处于正常服务的状态,探测失败后隔离服务(不分配流量)。
startupProbe用于容器启动时判断容器是否启动完成,在这个探针探测成功前,即容器启动成功前,livenessProbe和readinessProbe探针都不会起作用,防止某些启动很慢的容器在启动过程中被检测。
在实际的使用中只需要配置livenessProbe和readinessProbe,通过一段工作中使用到的配置给大家作以说明。

livenessProbe:
  failureThreshold: 3
  httpGet:
    path: /sams/webapi/health
    port: 19201
    scheme: HTTP
  initialDelaySeconds: 120
  periodSeconds: 20
  successThreshold: 1
  timeoutSeconds: 30
readinessProbe:
  failureThreshold: 3
  httpGet:
    path: /sams/webapi/health
    port: 19201
    scheme: HTTP
  initialDelaySeconds: 120
  periodSeconds: 20
  successThreshold: 1
  timeoutSeconds: 30

二,字段含义

字段

含义

ailureThreshold

不正常阈值。检测失败次数超过此值表示容器不健康(默认3次)

httpGet

采用http健康检查的方式

path

服务器上的访问URI

port

容器上要访问端口号

scheme

用于连接host的协议(HTTP或HTTPS),默认为HTTP

initialDelaySeconds

等待时间。从容器启动开始算起到检查开始时间差

periodSeconds

每次探测时间间隔(默认10秒)

successThreshold

正常阈值,失败后检查成功的最小次数,即从错误到正确要多少次表示健康(默认1次)

timeoutSeconds

探测超时时间(默认1秒)

httpHeaders

自定义请求头

三、三种检查方式

kubernetes中每种健康检查有三种方式。上面示例中采用的是httpGet的方式,其他两种为TCP和EXEC。

区别:

http(httpGet)检查方式会向容器中运行的服务发送HTTP GET请求,返回任何大于等于200且小于400的值,均表示健康,反之为不健康。
TCP(tcpSocket)检查方式将连接到容器的某个端口(port),如果探测成功,返回值为0,则该容器是健康的,反之为不健康。
EXEC检查方式会在容器中执行特定的命令(command),如果命令执行成功,则返回0,那么就认为容器是健康的,反之为不健康。

检查结果:

对于两种健康检查方式,有三种检查结果。

结果

含义

Success

通过了检查

Failure

未通过检查

Unknown

未能进行检查,因此不采取任何措施

可以通过pod描述查看检查结果,如下

# kubectl describe pod nginx-deploy-db66ff67c-kt4dx
...
Events:
  Type     Reason     Age                From               Message
  ----     ------     ----               ----               -------
  Normal   Scheduled  68s                default-scheduler  Successfully assigned default/nginx-deploy-db66ff67c-kt4dx to k8s-worker2
  Normal   Pulled     23s (x3 over 67s)  kubelet            Container image "nginx" already present on machine
  Normal   Created    23s (x3 over 67s)  kubelet            Created container mynginx
  Normal   Started    23s (x3 over 67s)  kubelet            Started container mynginx
  Normal   Killing    23s (x2 over 43s)  kubelet            Container mynginx failed liveness probe, will be restarted
  Warning  Unhealthy  12s (x6 over 57s)  kubelet            Readiness probe failed: dial tcp 192.168.126.4:8000: connect: connection refused
  Warning  Unhealthy  8s (x8 over 53s)   kubelet            Liveness probe failed: dial tcp 192.168.126.4:8000: connect: connection refused

四、验证测试

livenessProbe探测应用是否处于健康状态,如果不健康会杀掉容器并根据容器策略决定是否重启容器。

# cat deployment.yaml 
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx-deploy
  name: nginx-deploy
spec:
  replicas: 2
  selector:
    matchLabels:
      app: nginx-deploy
  template:
    metadata:
      labels:
        app: nginx-deploy
    spec:
      restartPolicy: Always
      containers:
        - name: mynginx
          image: nginx
          imagePullPolicy: IfNotPresent
          ports:
          - containerPort: 80
          livenessProbe:
            failureThreshold: 3
            httpGet:
              path: /index.html
              port: 80
              scheme: HTTP
            initialDelaySeconds: 10
            periodSeconds: 5
            successThreshold: 1
            timeoutSeconds: 5

部署

# kubectl apply -f deployment.yaml

查看

# kubectl get pod|grep nginx
nginx-deploy-79f6f77ff6-b7rvr             1/1     Running   0          3m19s
nginx-deploy-79f6f77ff6-f4znp             1/1     Running   0          3m19s

创建service用于负载均衡

# kubectl expose deployment nginx-deploy --port=8000 --target-port=80

解析

# 创建service对应的deployment是nginx-deploy
kubectl expose deployment nginx-deploy 
# service的对应的端口是8000
--port=8000
# 对应的容器端口的80 nginx默认启动80端口
--target-port=80

查看service,需要使用下面显示的集群ip加端口访问,只能在node节点访问

# kubectl get svc|grep nginx-deploy
nginx-deploy                                             ClusterIP      10.0.0.52    <none>        8000/TCP          26m

进入pod分别修改两个pod的index.html

# kubectl exec -it nginx-deploy-79f6f77ff6-b7rvr bash
root@nginx-deploy-79f6f77ff6-b7rvr:/# cd /usr/share/nginx/html/
root@nginx-deploy-79f6f77ff6-b7rvr:/usr/share/nginx/html# echo 111 > index.html

另外一个pod修改成222
使用集群ip加端口访问测试,负载均衡第一次访问返回111第二次访问返回222

# curl 10.0.0.52:8000
111
# curl 10.0.0.52:8000
222

删除其中一个pod的index.html会触发pod重启

kubernetes健康检查配置解析_html


查看pod的描述可以看到健康检查失败

# kubectl describe pod nginx-deploy-79f6f77ff6-f4znp

kubernetes健康检查配置解析_html_02


访问测试一次返回111一次返回默认的index.html页面

kubernetes健康检查配置解析_html_03

dinessProbe探测应用是否就绪并处于正常服务的状态,探测失败后隔离服务。

# cat deployment2.yaml 
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx-deploy
  name: nginx-deploy
spec:
  replicas: 2
  selector:
    matchLabels:
      app: nginx-deploy
  template:
    metadata:
      labels:
        app: nginx-deploy
    spec:
      restartPolicy: Always
      containers:
        - name: mynginx
          image: nginx
          imagePullPolicy: IfNotPresent
          ports:
          - containerPort: 80
          readinessProbe:
            failureThreshold: 3
            httpGet:
              path: /index.html
              port: 80
              scheme: HTTP
            initialDelaySeconds: 10
            periodSeconds: 5
            successThreshold: 1
            timeoutSeconds: 5

部署

# kubectl apply -f deployment2.yaml

进入pod分别修改index.html为111和222

删除一个pod的index.html

容器不会重启,但是服务被隔离了,curl一直返回没有被删除的index.html内容

kubernetes健康检查配置解析_html_04


查看pod状态有一个容器没有重启但是一直处于未准备状态

# kubectl get pod|grep nginx
nginx-deploy-5d9989944-g66m8              1/1     Running   0          4m16s
nginx-deploy-5d9989944-mfc5h              0/1     Running   0          4m16s

查看pod描述

kubernetes健康检查配置解析_nginx_05


查看endpoint可以看到负载均衡服务被踢出了只剩一个pod提供服务了

kubernetes健康检查配置解析_重启_06

六,梳理总结

存活性健康检查在检测失败后杀死容器,可用性健康检查失败后隔离服务(不分配流量)。容器是否重启由容器的重启策略restartPolicy决定的。
三种检查方式配置类似,区别在于方式的不同。HTTP为httpGet,TCP为tcpSocket,EXEC为exec(command)。
如果一个容器不包含存活探针,则Kubelet认为容器的存活探针的返回值永远成功,即永远不会重启。