1 Kubernetes网络模型
基本原则:每个Pod都拥有一个独立IP,而且假定所有Pod都在一个可以直接连通的、扁平的网络空间中。
- 基于基本原则,用户不需要额外考虑如何建立Pod之间的连接,也不需要考虑容器端口映射到主机端口等问题
- 同一个Pod内部的所有容器共享一个网络堆栈即网络命名空间,Pod内的所有容器的端口是共享的
- Kubernetes对集群网络要求:
- 所有容器都可以在不用NAT的方式下同别的容器通信
- 所有节点都可以在不用NAT的方式下同所有容器通信,反之亦然
- 容器的地址和别人看到的地址是同一个
2 Docker的网络基础
2.1 网络命名空间
- Linux在网络栈中引入网络命名空间(Network Namespace)为了支持网络协议栈的多个实例,处于不同命名空间的网络栈是完全隔离的
- Linux的网络命名空间内可以有自己独立的路由表及独立的Iptables/Netfilter设置来提供转发、NAT及IP包过滤等功能
- 需要纳入命名空间的元素有进程、套接字、网络设备等
2.1.1 网络命名空间的实现
- linux实现网络命名空间的核心是让网络栈的全局变量变成一个Net Namespace变量的成员,然后协议栈的函数调用加入一个Namespace的参数
- 网络空间链表连接所有网络空间,所有网络栈变量都放入到网络空间
- 所有的网络设置都只能属于一个命名空间,通常物理设置只能关联到root这个命名空间
- 网络命名空间代表是一个独立的协议栈,所以他们之间是相互隔离的彼此无法通信协议栈内部看不到对方
2.1.2 网络命名空间的操作
使用iproute2系列配置工具中的ip命令操作
ip netns add <name> #创建一个命名空间
ip netns exec <name> <command> #在命名空间内执行命令
ip netns exec <name> bash #执行多个命令先进入sh
2.2 Veth设备对
Veth设备都是成对出现的,可以实现不同网络命名空间之间进行通信
- 在Veth设置的一端发送数据时它会将数据直接发送到另一端,并触发另一端的接收操作
2.2.1 Veth操作命令
ip link add veth0 type veth peer name veth1 #创建veth设备对
ip link show #查看所有网络接口
ip link set veth1 netns netns1 #将veth1挂载到netns1命名空间下
ip link set dev veth1 up #启动veth1设备
2.2.2 Veth设备对如何查看对端
使用ethtool工具查看
ip netns exec netns1 ethtool -S veth1 #查询netns1下的veth1的对端,看peer_ifindex
ip netns exec netns2 ip link #查看peer_ifindex对应的值
2.3 网桥
- 网桥是一个二层网络设备,可以解析收发报文,读取目标MAC地址信息和自己记录的MAC表结合,来决策报文转发端口
- Linux中多网卡可以通过网桥提供这些设备之间相互转发数据
- 网桥处理转发和丢弃报文外还可以将报文发送到上层(网络层)
2.3.1 Linux网桥的实现
- Linux内核通过一个虚拟网桥设备(Net Device)来实现桥接,其可以绑定若干个以太网接口设备,从而将它们桥接起来
- Net Device可以有一个IP
3 Docker的网络实现
docker的4类网络模式:
1. host
2. container
3. none
4. bridge,默认设置
只介绍bridge模式
- Docker Daemon第一次启动时将创建一个虚拟网桥默认名为docker0,同时给其分配一个子网
- 针对Docker中的容器都会创建一个Veth设备对,一端关联网桥一端使用Linux的网络命名空间映射到容器内的eth0设备,然后从网桥的地址段内给eth0分配一个IP
- 为了让容器跨主机通信就必须在主机的地址上分配端口,然后通过这个端口路由或代理到容器上
4 Kubernetes的网络实现
4.1 容器到容器的通信
- 同一个Pod内的容器共享同一个网络命名空间,直接使用localhost即可
4.2 Pod之间的通信
- 每个Pod都有一个真实的全局IP,每个Node内的不同Pod之间可以直接采用对方Pod的Ip通信
4.2.1 同一Node内Pod通信
- 同一Node内的Pod通过Veth设备对连接到同一个docker0网桥上,Pod的IP也都是该网桥分配的
- Pod内的默认路由都是docker0的地址,所有数据都通过docker0转发
4.2.2 不同Node的Pod通信
- Pod的地址是与docker0在同一个网段内,而docker0网段与宿主机网卡的IP网段完全不同,而通信只能走宿主机的网卡,因此通信必须通过宿主机IP来进行寻址和通信
- Kubernetes会记录所有正在运行Pod的IP分配信息,并将其写入etcd作为Service的Endpoint
- 支持不同Node之间Pod的通信条件:
- 整个Kubernetes集群中Pod的IP不能冲突
- 能将Pod的IP与Node的IP关联起来,通过这个关联实现相互访问
- 解决:
- Kubernetes部署时多docker0的IP地址进行规划保证每个Node上的docker0地址不冲突
- 通信时先找到Node的IP将数据发送到这个网卡上,然后让宿主机将相应数据转到具体docker0上
4.3 Pod到Service的通信
- k8s在创建服务时为服务分配一个虚拟IP,客户端通过该IP访问服务,服务则负责将请求转发到后端Pod上
- Service是通过kube-proxy服务进程实现,该进程在每个Node上均运行可以看作一个透明代理兼负载均衡器
- 对每个TCP类型Service,kube-proxy都会在本地Node上建立一个SocketServer来负责接受请求,然后均匀发送到后端Pod默认采用Round Robin负载均衡算法
- Service的Cluster IP与NodePort等概念是kube-proxy通过Iptables的NAT转换实现,kube-proxy进程动态创建与Service相关的Iptables规则
- kube-proxy通过查询和监听API Server中Service与Endpoints的变化来实现其主要功能,包括为新创建的Service打开一个本地代理对象,接收请求针对针对发生变化的Service列表,kube-proxy会逐个处理,处理流程:
- 如果该Service没设置ClusterIP,则不做处理,否则获取该Service的所有端口定义列表
- 逐个读取端口定义列表,根据端口名、Service名和Namespace对其进行修改
- 更新负载均衡组件中对应Service的转发Service的转发地址列表
- 对于已删除的Service则进行清理
5 开源的网络组件
- Kubernetes的网络模型假定所有Pod都在一个可以直接连通的扁平网络空间,因此需要对网络进行设置
- 目前常见的模型有Flunnel、Open vSwitch及直接路由的方式