Pod
1、Pod基本概念
(1) 最小的部署单位
(2)包含多个容器(一组容器的集合)
(3)一个Pod中容器共享网络命名空间
(4) Pod是短暂的
2、Pod存在意义
(1)创建容器使用docker ,一个docker对应一个容器,一个容器有进程,一个容器只能运行一个应用程序。
(2) Pod是多进程设计,运行多个应用程序
- 一个Pod有多个容器,一个容器只能运行一个应用程序
(3) Pod为了亲密性应用存在
两个应用之间进行焦化 网络之间调用 两个应用需要频繁调用
3、Pod实现机制
- 容器本身之间相互隔离
(1) 共享网络
- 通过pause容器,把其他业务容器加入到pause容器里面,让所有业务容器在同一个命名空间中,可以实现网络共享
(2) 共享存储
- 引入数据卷概念volumn,使用数据卷进行持久化存储
4、Pod镜像拉取策略
imagePullPolicy:
- ifNotPrement: 默认值,镜像在宿主机上不存在时才拉取
- Always: 每次创建Pod都会重新拉取一次镜像
- Never: Pod永远不会主动拉取这个镜像
5、Pod资源限制
resources: requests: #代表需要调度的资源 memory: "64Mi" cpu: "250m" limits: # 能调度的最大资源 memory: "128Mi" cpu: "500m"
6、Pod重启机制
restartPolicy:
- Always: 当容器终止退出后,总是重启容器,默认策略。
- OnFailure:但容器异常退出(状态码非0)时,才重启容器。
- Never:当容器终止退出时,从不重启容器。
7、Pod健康检查
livenessProbe(存活检查)
- 如果检查失败,将杀死容器,根据Pod的restartPoticy来操作
readinessProbe(就绪检查)
- 如果检查失败,kubernetes会把Pod从service endpoints中剔除
Probe支持以下三种检查方法
- httpGet
发送HTTP请求,返回200-4--范围状态码为成功 - exec
执行shell命令返回状态码是0为成功 - tcpSocket
发起TCP Socket 建立成功
8、调度策略
API Server etcd Scheduler Kubelet Docker
1、创建Pod ->apiserver -> etcd
2、Scheduler ->apiserver ->etcd-> 调度算法,把Pod调度到某个节点上
3、kubelet -> apiserver ->读取etcd拿到分配给当前节点Pod ->docker创建容器
1.Pod资源限制对pod调用产生影响
resources: requestes: memory: "64Mi" cpu: "250m" 根据request找到足够资源的node节点进行调度
2.节点选择器标签影响Pod调度
[root@m1 ~]# kubectl label node n1 env_role=dev
node/n1 labeled #对n1节点打一个标签
[root@m1 ~]# kubectl get nodes n1 --show-labels #查看n1节点标签状态
NAME STATUS ROLES AGE VERSION LABELS
n1 Ready worker 24d v1.20.6 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,env_role=dev,kubernetes.io/arch=amd64,kubernetes.io/hostname=n1,kubernetes.io/os=linux,node-role.kubernetes.io/worker=worker
3.节点亲和性对Pod调度的影响
节点亲和性,nodeAffinity 和nodeSelector基本一样,根据节点上标签约束来绝对调度到哪些节点上。
(1)硬亲和性 requiredDuringSchedulingIgnoredDuringExecution
约束条件必须满足
(2)软亲和性 preferreDuringSchedulingIgnoreDuringExecution
尝试满足,不保证绝对满足
支持常用操作符
In NotIn Exists Gt Lt DoesNotExists
9、污点和污点容忍
1、基本介绍
nodeSelector和nodeAffinity: Pod调度到某些节点上,Pod属性,调度时实现
Taint污点: 节点不做普通分配调度,是节点属性
2、场景:
专用节点, 配置特点硬件节点, 给予Taint驱逐
3、具体演示
1、查看污点情况
[root@m1 ~]# kubectl describe node m1 | grep Taint
Taints: node-role.kubernetes.io/master:NoSchedule
# NoSchedule: 一定不被调度
# PreferNoSchedule: 尽量不被调度
#NoExecute: 不会调度,并且还会驱逐已有Node
2、为节点添加污点
kubectl taint node [node] key=value:污点三个值
[root@m1 ~]# kubectl taint node n1 env_role=yes:NoSchedule
node/n1 tainted
3、删除污点
kubectl taint node [node] key-
[root@m1 ~]# kubectl taint node n1 env_role-
node/n1 untainted
#后面加一个减号就可以删除了