一、群集概述

1、群集的含义

Cluster,集群、群集
群集是由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大
型计算机。

2、应用背景

      互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求。

3、解决方法

1、用价格昂贵的小型机、大型机

2、使用多台相对廉价的普通服务器构建服务群集

通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并以同一个IP地址对外提供相同的服务。
在企业中常用的一种群集技术————LVS (Linux Virtual Server, Linux虚拟服务器)

二、群集的分类

1.根据群集所针对的目标差异,可分为3种类型  

负载均衡群集
高可用群集
高性能运算群集

a.负载均衡群集(Load Balance Cluster)

提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整
体性能。
LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个
系统的负载压力。
例如,"DNS轮询" "反向代理"

b.高可用群集(High Availability Cluster)

提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA) 的容错效果。
HA的工作方式包括双工和主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障
时从节点能自动切换为主节点。
例如:"故障切换" "双机热备"

c.高性能运算群集(High Performance Computer Cluster)

以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能
运算(HPC) 能力
高性能依赖于"分布式运算""并行计算" ,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在
一起,实现只有大型、超级计算机才具备的计算能力。
例如,“云计算” “网格计算” 等

三、负载均衡群集的结构 (图1.18-1)

1.第一层,负载调度器(Load Balancer或Director)

访问整个群集系统的唯一入口, 对外使用所有服务器共有的VIP地址,也称为群集IP地址。
通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。

2.第二层,服务器池/组(Server Pool)

群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发
过来的客户机请求。
当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。

3.第三层,共享存储(Share Storage)

为服务器池中的所有节点提供稳定、一致的文件存取服务, 确保整个群集的统一性共享存储可以使用NAS设
备,或者提供NFS共享服务的专用服务器。

LVS负载均衡群集之NAT模式_ipvsadm

四、负载均衡群集工作模式分析

负载均衡群集是目前企业用得最多的群集类型

1.群集的负载调度技术有三种工作模式

地址转换  (NAT)
IP隧道 (TUN)
直接路由 (DR)

a.NAT 模式

Network Address Translation,简称NAT模式,即地址转换。
类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各
节点回应客户机的访问出口。
服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式。

问:为什么不使用NAT模式?

答:因为调度器既作为客户机的访问入口,也作为回应客户机的出口,所以调度器会成为负载均衡群集的瓶颈

LVS负载均衡群集之NAT模式_ipvsadm_02

b.TUN模式

IP Tunnel,简称TUN模式,即IP 隧道
采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客
户机,而不再经过负载调度器。
服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信。

LVS负载均衡群集之NAT模式_ipvsadm_03


c.DR模式

Direct Rputing,简称DR模式,即直接路由
采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个
物理网络。
负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道。

LVS负载均衡群集之NAT模式_负载均衡_04

总结:LVS 3种模式 NAT、 DR、IP-TUNNEL

NAT模式会把调度器当做客户端访问的入口,也把调度器当做服务器回应客户端的访问出口,调度器将会成为整个负载均衡群集的瓶颈。

DR、IP-TUNNEL

会把调度器当做客户端访问的入口,调度器会把请求转发给节点服务器,节点服务器回应是直接发送给客户端而不经过调度器。

LVS的转发是属于4层转发。就是说是基于IP+端口的转发,而且负载均衡性能是最好的


关于LVS虚拟服务器

Linux Virtual Server
●针对Linux内核开发的负载均衡解决方案
●1998年5月,由我国的章文嵩博士创建
●官方网站: http://www.linuxvirtualserver.org/
●LVS实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法
LVS现在已成为Linux内核的一部分,默认编译为ip_vs 模块,必要时能够自动调用。

1.手动开启查看LVS模块信息:

modprobe ip_vs          #开启模块
cat /proc/net/ip_vs #查看模块

ip_vs所有模块在 /usr/lib/modules/3.10.0-693.e17.x86_64/kernel/net/netfilter/ipvs/ 目录中

可以用 ls | grep -o "^[^.]*" 去匹配模块名

2.LVS的负载调度算法

a.轮询(Round Robin)

将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每一台服务器,而不管服
务器实际的连接数和系统负载。

b.加权轮询(Weighted Round Robin)

根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多,以保证性能强的
服务器承担更多的访问流量。

c.最少连接(Least Connections )

根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。

d.加权最少连接(Weighted Least Connections)d

在服务器节点的性能差异较大时,可以为真实服务器自动调整权重,性能较高的节点将承担更大比例的活动
连接负载。

e.源地址哈希值(source hasb) 。

3.LVS调度器用的调度方法基本分为两类:

固定调度算法: rr, wrr,dh,sh ,

rr:轮询算法,将请求依次分配给不同的rs节点,即RS节点中均摊分配。适合于RS所有节点处理性能接近的情
况。
Krr:加权轮训调度,依据不同RS的权值分配任务。权值较高的RS将优先获得任务,并且分配到的连接数将比权
值低的RS更多。相同权值的RS得到相同数目的连接数。
dh:目的地址哈希调度(destinationhashing)以目的地址为关键字查找一个静态hash表来获得所需RS。
sh:源地址哈希调度(sourcehashing)以源地址为关键字查找一个静态hash表来获得需要的RS。

动态调度算法: wlc,lc,1blc

wlc:加权最小连接数调度,假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次去Ti/Wi为最小的RS作
为下一个分配的RS。
lc: 最小连接数调度(least-connection) ,IPVS表存储了所有活动的连接。LB会比较将连接请求发送到当前
连接最少的RS。
lblc:基于地址的最小连接数调度(locality-basedleast-connection):
将来自同一个目的地址的请求分配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配
给连接数最小的RS,并以它作为下一次分配的首先考虑。

实验案例:

步骤:

1.加载ip_vs模块,安装ipvsadm工具
2.开启路由转发
3.新建LVS虚拟服务器并添加节点服务器
4.配置节点服务器
建立测试网站
挂载NFS共享存储
建立测试网页
5.保存规则并测试

ipvsadm工具选项说明:

-A: 添加虚拟服务器
-D: 删除整个虚拟服务器
-s: 指定负载调度算法(轮询: rr、加权轮询: wrr、最少连接: lc、加权最少连接: wlc)
-a: 表示添加真实服务器( 节点服务器)
-d: 删除某一个节点
-t: 指定VIP地址及TCP端口
-r: 指定RIP地址及TCP端口
-m: 表示使用NAT群集模式
-g: 表示使用DR模式
-i: 表示使用TUN模式
-w: 设置权重(权重为0时表示暂停节点)
-p 60: 表示保持长连接60秒
-l: 列表查看LVS 虚拟服务器(默认为查看所有)
-n: 以数字形式显示地址、端口等信息,常与"-l" 选项组合使用。 ipvsadm -ln

环境配置:

负载调度器:内网关ens33: 192.168.163.6, 外网关ens36: 12.0.0.1  
Web节点服务器1: 192.168.163.7
Web节点服务器2: 192.168.163.8
NFS服务器: 192.168.163.9
客户端: 12.0.0.12

1.部署共享存储(NFS服务器: 192.168.163.9)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum install nfs-utils rpcbind -y
systemctl start rpcbind.service
systemctl start nfs.service

systemctl enable nfs.service
systemctl enable rpcbind.service


mkdir /opt/kgc /opt/benet
chmod 777 /opt/kgc /opt/benet
echo 'this is kgc web!' > /opt/kgc/index.html
echo 'this is benet web!' > /opt/benet/index.html

vim /etc/exports
/opt/kgc 192.168.163.0/24 (rw, sync)
/opt/benet 192.168.163.0/24 (rw, sync)

--发布共享---
exportfs -rv

LVS负载均衡群集之NAT模式_ipvsadm_05

LVS负载均衡群集之NAT模式_LVS_06

LVS负载均衡群集之NAT模式_LVS_07

2.配置节点服务器(192.168.163.7、 192.168.163.8)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum install httpd -y
systemctl start httpd.service
systemctl enable httpd.service

yum install nfs-utils rpcbind -y
showmount -e 192.168.163.9

systemctl start rpcbind
systemctl start nfs

--192.168.163.7---
mount 192.168.163.9:/opt/kgc /var/www/html

vim /etc/fstab
192.168.163.9:/opt/kgc /var/www/html nfs defaults,_netdev 0 0


--192.168.163.8---
mount 192.168.163.9:/opt/benet /var/www/html

vim /etc/fstab
192.168.163.9:/opt/benet /var/www/html nfs defaults,_netdev 0 0

LVS负载均衡群集之NAT模式_LVS_08

LVS负载均衡群集之NAT模式_ipvsadm_09

LVS负载均衡群集之NAT模式_负载均衡_10

LVS负载均衡群集之NAT模式_LVS_11

LVS负载均衡群集之NAT模式_ipvsadm_12

3.配置负载调度器(内网关ens33: 192.168.163.6, 外网关ens37: 12.0.0.254)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

LVS负载均衡群集之NAT模式_负载均衡_13

LVS负载均衡群集之NAT模式_LVS_14

(1)配置SNAT转发规则

vim /etc/sysctl.conf
net.ipv4.ip_forward = 1

sysctl -p

iptables -t nat -F
iptables -F
iptables -t nat -A POSTROUTING -s 192.168.163.0/24 -o ens36 -j SNAT --to-source 12.0.0.1

LVS负载均衡群集之NAT模式_负载均衡_15

LVS负载均衡群集之NAT模式_负载均衡_16

LVS负载均衡群集之NAT模式_负载均衡_17

(2)加载LVS内核模块

modprobe ip_vs   #加载ip_vs模块
cat /proc/net/ip_vs #查看ip_vs版本信息

#加载所有ip_vs模块
for i in $(ls | /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs | grep -o "^[^.]*");
do
echo $i;
/sbin/modinfo -F
filename $i > /dev/null 2>&1 && /sbin/modprobe $i;
done

LVS负载均衡群集之NAT模式_LVS_18

(3)安装ipvsadm 管理工具

yum -y install ipvsadm

--启动服务前须保存负载分配策略---
ipvsadm-save > /etc/sysconfig/ipvsadm
或者ipvsadm --save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm.service ;

LVS负载均衡群集之NAT模式_ipvsadm_19

LVS负载均衡群集之NAT模式_负载均衡_20

(4)配置负载分配策略(NAT模式只要在服务器上配置,节点服务器不需要特殊配置)

ipvsadm -C       #清除原有策略

ipvsadm -A -t 12.0.0.1:80 -s rr
ipvsadm -a -t 12.0.0.1:80 -r 192.168.163.8:80 -m [-w 1]
ipvsadm -a -t 12.0.0.1:80 -r 192.168.163.7:80 -m [-w 1]

ipvsadm #启用策略

ipvsadm -ln #查看节点状态,Masq代表NAT模式
ipvsadm-save > /etc/sysconfig/ipvsadm #保存策略


ipvsadm -d -t 12.0.0.1:80 -r 192.168.163.7:80 #删除群集中某一节点服务器
ipvsadm -D -t 12.0.0.1:80 #删除整个虚拟服务器.
systemctl stop ipvsadm #停止服务(清除策略)
systemctl start ipvsadm #启动服务( 重建规则)、
ipvsadm-restore < /etc/sysconfig/ipvsadm #恢复LVS策略

LVS负载均衡群集之NAT模式_负载均衡_21

4.测试效果

在一台IP为12.0.0.12的客户机使用浏览器访问http://12.0.0.1/,不断刷新浏览器测试负载均衡效果,刷新间隔需长点。

*ipvs与iptables 底层都是用的nat转换技术,都是属于内核态netfilter;但是ipvs转发性能更好一些。
相对iptables管理的策略更少,iptables读取 策略是按照规则表从上往下依次读取,而ipvs是直接根据分发
策略转发。

LVS负载均衡群集之NAT模式_ipvsadm_22

LVS负载均衡群集之NAT模式_负载均衡_23