这里写目录标题
- 一、 企业群集分类
- 1.1负载均衡群集
- 1.2 高可用群集
- 1.3 高性能运算群集
- 二、负载均衡群集架构
- 三、负载均衡群集工作模式
- 3.1 NAT模式
- 3.2 TUN 模式
- 3.3 DR 模式
- 四、LVS 虚拟服务器
- 4.1 LVS的负载调度算法
- 五、LVS-NAT 实验
- 5.1 实验环境
- 5.2 准备工作
- 5.3 nfs服务器配置
- 5.4 服务器配置
- 5.5 负载均衡器配置
- 5.6 客户端访问验证
一、 企业群集分类
- 根据群集目标差异分类
1.1负载均衡群集
- 提高应用系统的响应能力、尽可能处理更多的访问请求、
减少延迟为目标,获得高并发、负载(LB)的整体性能
L B的负载分配依赖于主节点的分流算法
1.2 高可用群集
- 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连
续性,达到高可用(HA) 的容错效果 - HA的工作方式包括双工和主从两种模式
1.3 高性能运算群集
- 提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得
相当于大型、超级计算机的高性能运算(HPC) 能力 - 高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力
二、负载均衡群集架构
- 第一层 ,负载调度池(Load Balancer 或 Director)
- 第二层 , 服务器池(Server Pool)
- 第三层,共享存储(Share Storage)
三、负载均衡群集工作模式
- 负载均衡群集是目前企业用的最多的群集类型
- 群集的负载调度技术有三种工作模式
1、 地址转换
2、IP隧道
3、直接路由
3.1 NAT模式
地址转换
- Network Address Translation,简称NAT模式
- 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口。
- 服务器节点使用私有IP地址,与负载调度器位于同一一个物理网络,安全性要优于其他两种方式。
3.2 TUN 模式
IP隧道
- IP Tunnel,简称TUN模式
- 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过
负载调度器。 - 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信。
3.3 DR 模式
直接路由
- Direct Routing,简称DR模式
- 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
- 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道。
四、LVS 虚拟服务器
- 针对Linux内核的负载均衡解决方案
- 1998年5月,由我国的章文嵩博士创建
4.1 LVS的负载调度算法
轮询(Round Robin)
将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器) ,均等地对待每一台服务器 ,而不管服务器实际的连接数和系统负载。
加权轮询(Weighted Round Robin)
- 根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多。
- 保证性能强的服务器承担更多的访问流量。
最少连接(Least Connections)
根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。
加权最少连接(Weighted Least Connections)
在服务器节点的性能差异较大时,可以为真实服务器自动调整权重
性能较高的节点将承担更大比例的活动连接负载
五、LVS-NAT 实验
5.1 实验环境
- 需准备四台CentOS7.6 系统虚拟机和1台WIN10系统虚拟机
- 一台CentOS虚拟机配置双网卡 充当调度器 ,两台CentOS虚拟机安装apache服务充当服务器server1和server2,最后一台CentOS 虚拟机提供NFS 服务 充当NFS 存储设备,WIN10 充当客户端 访问服务。
实验拓补图
5.2 准备工作
为了防止干扰,关闭所有服务器的防火墙与核心防护
- nfs服务器
[root@nfs ~]# yum -y install nfs-utils
[root@nfs ~]# yum -y install rpcbind
ens33: 192.168.200.60
- 服务器1:
[root@server1 ~]# yum -y install httpd
ens33: 192.168.200.40
- 服务器2:
[root@server2 ~]# yum -y install httpd
ens33: 192.168.200.50
- 负载均衡服务器
[root@lvs ~]# yum install ipvsadm -y ## LVS 管理工具
添加双网卡
ens33:192.168.200.1
ens36: 12.0.0.1
5.3 nfs服务器配置
[root@nfs ~]# cd /opt/
[root@nfs opt]# mkdir accp benet
[root@nfs opt]# chmod 777 accp benet
[root@nfs opt]# vim /etc/exports
[root@nfs opt]# vim /etc/exports
/opt/accp 192.168.200.0/24(rw,sync)
/opt/benet 192.168.200.0/24(rw,sync)
[root@nfs opt]# systemctl restart nfs
[root@nfs opt]# systemctl restart rpcbind
[root@nfs opt]# exportfs -rv ## 发布共享
exporting 192.168.200.0/24:/opt/benet
exporting 192.168.200.0/24:/opt/accp
5.4 服务器配置
- server1
[root@server1 ~]# showmount -e 192.168.200.60
Export list for 192.168.200.60:
/opt/benet 192.168.200.0/24
/opt/accp 192.168.200.0/24
[root@server1 ~]# vim /etc/fstab
192.168.200.60:/opt/accp /var/www/html nfs defaults 0 0
[root@server1 ~]# mount -a
[root@server1 ~]# df -Th
192.168.200.60:/opt/accp nfs4 11G 8.6G 2.5G 78% /var/www/html
[root@server1 ~]# vim /var/www/html/index.html
<h1>this is accp </h1>
[root@server1 ~]# systemctl start httpd
- server 2
[root@server2 ~]# showmount -e 192.168.200.60
Export list for 192.168.200.60:
/opt/benet 192.168.200.0/24
/opt/accp 192.168.200.0/24
[root@server2 ~]# vim /etc/fstab
[root@server2 ~]# mount -a
192.168.200.60:/opt/benet /var/www/html nfs defaults 0 0
[root@server2 ~]# df -Th
192.168.200.60:/opt/benet nfs4 11G 8.6G 2.5G 78% /var/www/html
[root@server2 ~]# vim /var/www/html/index.html
this is benet</h1>
[root@server2 ~]# systemctl start httpd
5.5 负载均衡器配置
vim nat.sh
#!/bin/bash
echo "1" > /proc/sys/net/ipv4/ip_forward
ipvsadm -C ## 清除缓存
ipvsadm -A -t 12.0.0.1:80 -s rr ## 指向-A vip地址(虚拟服务器) -s 启用算法 rr 轮询算法
ipvsadm -a -t 12.0.0.1:80 -r 192.168.200.40:80 -m ## -a 是定位 指定地址(真实服务器) -a -t 指向 -m 指的是用NAT 模式
ipvsadm -a -t 12.0.0.1:80 -r 192.168.200.50:80 -m
ipvsadm ## 启用
chmod 777 nat.sh
./nat.sh
5.6 客户端访问验证