Kubernetes 中使用 Job 和 CronJob 两个资源分别提供了一次性任务和定时任务的特性,这两种对象也使用控制器模型来实现资源的管理,我们在这篇文章来介绍Job执行如果失败了会怎么样呢?

修改job-fail.yaml,故意引入一个错误:
k8s使用Job执行任务失败了怎么办_kubernetes

Never

如果将 restartPolicy 设置为 Never 会怎么样?下面我们实践一下,修改job-fail.yaml后重新启动。

运行 Job 并查看状态,可以看到Never策略的job,pod失败后,重新创建:
k8s使用Job执行任务失败了怎么办_kubernetes_02

k8s使用Job执行任务失败了怎么办_kubernetes_03
直到重新创建7个(spec.backoffLimit默认为6,即重试6次,共7个pod)pod都失败后,认为失败,job的status里会更新为Failed
k8s使用Job执行任务失败了怎么办_k8s_04

当前 Completion 的数量为 0
k8s使用Job执行任务失败了怎么办_k8s_05

查看 Pod 的状态:

可以看到有多个 Pod,状态均不正常。kubectl describe pod 查看某个 Pod 的启动日志:

k8s使用Job执行任务失败了怎么办_docker_06

日志显示没有可执行程序,符合我们的预期。

为什么 kubectl get pod 会看到这么多个失败的 Pod?

原因是:当第一个 Pod 启动时,容器失败退出,根据 restartPolicy: Never,此失败容器不会被重启,但 Job DESIRED 的 Pod 是 1,目前 SUCCESSFUL0,不满足,所以 Job controller 会启动新的 Pod,直到 SUCCESSFUL1。对于我们这个例子,SUCCESSFUL 永远也到不了 1,所以 Job controller 会一直创建新的 Pod,直到设置的数量,失败后pod不会自动被删除,为了终止这个行为,只能删除 Job,pod也会被同时删掉。

k8s使用Job执行任务失败了怎么办_docker_07

OnFailure

如果将 restartPolicy 设置为 OnFailure 会怎么样?下面我们实践一下,修改job-fail.yaml后重新启动。k8s使用Job执行任务失败了怎么办_运维_08

k8s使用Job执行任务失败了怎么办_kubernetes_09

Job 的 Completions Pod 数量还是为 0,看看 Pod 的情况:

k8s使用Job执行任务失败了怎么办_运维_10

这里只有一个 Pod,不过 RESTARTS 在不断增加,说明 OnFailure 生效,容器失败后会自动重启。
k8s使用Job执行任务失败了怎么办_kubernetes_11

6次失败后,pod被删除:
k8s使用Job执行任务失败了怎么办_运维_12

同时更新job的status为失败,方便查看最终执行结果:
k8s使用Job执行任务失败了怎么办_kubernetes_13


作者简洁

作者:小碗汤,一位热爱、认真写作的小伙,目前维护原创公众号:『我的小碗汤』,专注于写golang、docker、kubernetes等知识等提升硬实力的文章,期待你的关注。 转载说明:务必注明来源(注明:来源于公众号:我的小碗汤, 作者:小碗汤)