一、纯容器模式的问题

1、业务容器数量庞大,哪些容器部署在哪些节点,使用了哪些端口,如何记录、管理,需要登录到每台机器去管理? 2、跨主机通信,多个机器中的容器之间相互调用如何做,iptables规则手动维护? 3、跨主机容器间互相调用,配置如何写?写死固定IP+端口? 4、如何实现业务高可用?多个容器对外提供服务如何实现负载均衡? 5、容器的业务中断了,如何可以感知到,感知到以后,如何自动启动新的容器? 6、如何实现滚动升级保证业务的连续性? 7、......

二、核心组件构成图

三、核心组件作用

ETCD:分布式高性能键值数据库,存储整个集群的所有元数据 ApiServer: API服务器,集群资源访问控制入口,提供restAPI及安全访问控制 Scheduler:调度器,负责把业务容器调度到最合适的Node节点 Controller Manager:控制器管理,确保集群资源按照期望的方式运行

Replication Controller
Node controller
ResourceQuota Controller
Namespace Controller
ServiceAccount Controller
Token Controller
Service Controller
Endpoints Controller

kubelet:运行在每个节点上的主要的“节点代理”,脏活累活

pod管理:kubelet 定期从所监听的数据源获取节点上 pod/container 的期望状态(运行什么容器、运行的副本数量、网络或者存储如何配置等等),并调用对应的容器平台接口达到这个状态。
容器健康检查:kubelet 创建了容器之后还要查看容器是否正常运行,如果容器运行出错,就要根据 pod 设置的重启策略进行处理.
容器监控:kubelet 会监控所在节点的资源使用情况,并定时向 master 报告,资源使用数据都是通过 cAdvisor 获取的。知道整个集群所有节点的资源情况,对于 pod 的调度和正常运行至关重要

kube-proxy:维护节点中的iptables或者ipvs规则 kubectl: 命令行接口,用于对 Kubernetes 集群运行命令

四、工作流程

五、工作流描述

1、用户准备一个资源文件(记录了业务应用的名称、镜像地址等信息),通过调用APIServer执行创建Pod 2、APIServer收到用户的Pod创建请求,将Pod信息写入到etcd中 3、调度器通过list-watch的方式,发现有新的pod数据,但是这个pod还没有绑定到某一个节点中 4、调度器通过调度算法,计算出最适合该pod运行的节点,并调用APIServer,把信息更新到etcd中 5、kubelet同样通过list-watch方式,发现有新的pod调度到本机的节点了,因此调用容器运行时,去根据pod的描述信息,拉取镜像,启动容器,同时生成事件信息 6、同时,把容器的信息、事件及状态也通过APIServer写入到etcd中