HAProxy搭建Web群集

常见的Web集群调度器

  • [ ] 目前常见的Web集群调度器分为软件和硬件
  • [ ] 软件通常使用开源的LVS、Haproxy、Nginx、traefck
    • LVS性能最好,但是搭建相对复杂;
    • Nginx的upstream模块支持集群功能,但是对集群节点健康检查功能不强,高并发没有Haproxy好
  • [ ] 硬件一般使用的比较多的是F5,也有很多人使用梭子鱼、绿盟等国内产品(可以减少维护成本)

HAProxy应用分析

  • [ ] LVS在企业应用中抗负载能力很强,但存在不足
    • LVS不支持正则处理,<u>不能实现动静分离</u>
    • 对于大型网站,LVS的实施配置复杂,维护成本相对较高
  • [ ] Haproxy是一款可提供高可用性、负载均衡、及基于TCP(四层)和HTTP(七层)应用的代理的软件
    • 适用于负载大的Web站点
    • 运行在硬件上<u>可支持数以万计</u>的并发连接的连接请求
    • 虚拟机,VMsphere+ESXI
    • 云平台,公有云(对外,阿里、华为、AWS、微软)、私有云(对内,openstack)、混合云(同时能满足对外业务的发布,同时也能满足网络环境的安全需求)

HAProxy调度算法原理

  • [ ] Haproxy支持多种调度算法,最常用的有三种

  • RR (Round Robin)
    <u>RR算法是最简单常用的一种算法,即轮询调度</u>

    • 理解举例
    • 有三个节点A、B、C
    • 第一个用户访问会被指派到节点A
    • 第二个用户访问会被指派到节点B
    • 第三个用户访问会被指派到节点C
    • 第四个用户访问继续指派到节点A,轮询分配访问请求实现负载均衡效果
  • LC(Least Connections)
    <u>最小连接数算法,根据后端的节点连接数大小动态分配前端请求</u>
    • 理解举例
    • 有三个节点A、B、C,各节点的连接数分别为A:4、B:5、C:6
    • 第一个用户连接请求,会被指派到A上,连接数变为A:5、B:5、C:6
    • 第二个用户请求会继续分配到A上,连接数变为A:6、B:5、C:6;再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端
    • 由于实际情况下A、B、C的连接数会动态释放,很难会出现一样连接数的情况
    • 此算法相比较rr算法有很大改进,是目前用到比较多的一种算法
  • SH(Source Hashing)
    基于来源访问调度算法,用于一些有Session会话记录在服务器端的场景,可以基于来源的IP、Cookie等做集群调度
    • 理解举例
    • 有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第一次访问被指派到了B
    • 当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡调度器不重启,第一个用户访问都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度
    • 此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用

总结

HAproxy是可提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,是免费、快速并且可靠的一种解决方案。HAproxy非常适用于并发大(并发达1w以上) web站点,这些站点通常又需要会话保持或七层处理。HAproxy的运行模式使得它可以很简单安全的整合至当前的架构中,同时可以保护web服务器不被暴露到网络上。

HAProxy的主要特性有

  • 可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;
  • 最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力(吞吐量、带宽)可达10Git/s;
  • 支持多达8种负载均衡算法,同时也支持会话保持;
  • 支持虚机主机功能,从而实现web负载均衡更加灵活;
  • 支持连接拒绝、全透明代理等独特的功能;
  • 拥有强大的ACL支持,用于访问控制;
  • 其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查寻速度不会随着数据条目的增加而速度有所下降;
  • 支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成
  • 支持TCP加速,零复制功能,类似于mmap机制;
  • 支持响应池(response buffering);
  • 支持RDP协议;
  • 基于源的粘性,类似nginx的ip_hash功能,把来自同一客户端的请求在一定时间内始终调度到上游的同一服务器;
  • 更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息;
  • 详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态,并提供了一定的管理功能;
  • 基于流量的健康评估机制;
  • 基于http认证;
  • 基于命令行的管理接口;
  • 日志分析器,可对日志进行分析。

HAProxy负载均衡的8种策略

HAProxy负载均衡策略 介绍
roundrobin 表示简单的轮询
static-rr 表示根据权重
leastconn 表示最少连接者先处理
source 表示根据请求源IP
uri 表示根据请求的UR工,做cdn需使用
url_param 表示根据请求的URl参数' balance url param' requires an URI parameter name
hdr (name) 表示根据HTTP请求头来锁定每一次HTTP请求
rdp-cookie (name) 表示根据据cookie(name)来锁定并哈希每一次TCP请求

LVS、Nginx、HAproxy的区别

  • LVS基于Linux操作系统内核来实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡;
  • LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而HAProxy和Nginx都可以实现4层和7层技术,HAProxy可提供TCP和HTTP应用的负载均衡综合解决方案;
  • LVS因为工作在LSO模型的第四层,其状态监测功能单一,而HAProxy在状态监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状态检测方式;
  • HAProxy功能强大,但整体性能低于4层模式的LVS负载均衡。
  • Nginx主要用于Web服务器或缓存服务器。Nginx的upstream模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好。

并发性能:LVS > HAProxy > Nginx
LVS是基于OS的内核,HAProxy和Nginx是基于用户态的软件应用实现的

功能:LVS 仅支持四层转发,HAProxy和Nginx都能支持四层和七层转发

健康检查:LVS 监测功能单一,和Nginx都主要用端口来检测,HAProxy检测手段很多(url,端口,脚本等)

Haproxy搭建web群集

HA案例拓补图.png

环境配置

主机 操作系统 IP地址 工具
Haproxy服务器 CentOS7 ens33:192.168.80.20 haproxy-1.5.19.tar.gz
Web节点服务器1 CentOS7 ens33:192.168.80.30 httpd
Web节点服务器2 CentOS7 ens33:192.168.80.40 httpd
客户机 Windows7 192.168.80.100

壹、Haproxy服务器部署

1.关闭防火墙,将安装Haproxy所需软件包传到/opt目录下

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

cd /opt
haproxy-1.5.19.tar.gz

HA服务器1.png

2.编译安装Haproxy

yum install -y pcre-devel bzip2-devel gcc gcc-c++ make

tar zxvf haproxy-1.5.19.tar.gz
cd haproxy-1.5.19/
make TARGET=linux2628 ARCH=x86_64
make install

参数说明:

#使用uname -r查看内核,如:2.6.18-371.el5,此时该参数用TARGET=linux26;kernel大于2.6.28的用TARGET=linux2628
TARGET=linux26 #内核版本
ARCH=x86_64   #系统位数,64位系统

HA服务器2.png

HA服务器3.png

HA服务器4.png

3.Haproxy服务器配置

mkdir /etc/haproxy
cp examples/haproxy.cfg /etc/haproxy/

cd /etc/haproxy/
vim haproxy.cfg
global      #全局配置,主要用于定义全局参数,属于进程级的配置,通常和操作系统配置有关
  --4~5行--修改,配置日志记录,local0为日志设备,默认存放到系统日志
  log /dev/log   local0 info        
  log /dev/log   local0 notice
  #log loghost    local0 info
  maxconn 4096   #最大连接数,需考虑ulimit-n限制

  --8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
  #chroot /usr/share/haproxy
  uid 99    #用户UID
  gid 99    #用户GID
  daemon    #守护进程模式
  nbproc 4
defaults    #配置默认参数,这些参数可以被用到Listen,frontend,backend组件
  log     global      #定义日志为global配置中的日志定义
  mode    http        #模式为http(7层代理http,4层代理tcp)
  option  httplog     #采用http日志格式记录日志
  option  dontlognull #不记录健康检查日志信息
  retries 3           #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
  redispatch          #当服务器负载很高时,自动结束当前队列处理比较久的连接
  maxconn 2000        #最大连接数
  #contimeout 5000    #连接超时时间
  #clitimeout 50000   #客户端超时时间
  #srvtimeout 50000   #服务器超时时间
  timeout http-request 10s #默认http请求超时时间
  timeout queue 1m         #默认队列超时时间
  timeout connect 10s      #默认连接超时时间,新版本中替代contimeout,该参数向后兼容
  timeout client 1m        #默认客户端超时时间,新版本中替代clitimeout,该参数向后兼容
  timeout server 1m        #默认服务器超时时间,新版本中替代srvtimeout,该参数向后兼容
  timeout http-keep-alive 10s #默认持久连接超时时间
  timeout check 10s           #设置心跳检查超时时间

--删除下面所有listen项--,添加
listen  webcluster 0.0.0.0:80       #haproxy实例状态监控部分配置,定义一个名为webcluster的应用
    option httpchk GET /test.html   #检查服务器的test.html文件
    balance roundrobin              #负载均衡调度算法使用轮询算法roundrobin
    server inst1 192.168.80.30:80 check inter 2000 fall 3   #定义在线节点
    server inst2 192.168.80.40:80 check inter 2000 fall 3

参数说明

balance roundrobin   #负载均衡调度算法
-轮询算法:roundrobin;
-最小连接数算法:leastconn;
-来源访问调度算法:source,类似于nginx的ip_hash

check inter 2000     #表示haproxy服务器和节点之间的一个心跳频率
fall 3               #表示连续三次检测不到心跳频率则认为该节点失效
若节点配置后带有"backup"表示该节点只是个备份节点,只有主节点失效该节点才会上。
不携带"backup",表示为主节点,和其它主节点共同提供服务。

HA服务器5.png

HA服务器6.png

4.添加Haproxy系统服务

:如果先做了Haproxy服务器,这步需要等到节点服务器搭建好再去做,不然会启动失败

cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
cd /etc/init.d/
ll
chmod +x haproxy
chkconfig --add /etc/init.d/haproxy
chkconfig --list /etc/init.d/haproxy
chkconfig --level 35 /etc/init.d/haproxy on

ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
service haproxy start或/etc/init.d/haproxy start

HA服务器7.png


贰、配置节点服务器

Web节点服务器1:192.168.80.30
Web节点服务器2:192.168.80.40

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum install -y httpd

HA节点1.png

编辑网页主页

Web节点服务器1:192.168.80.30

echo "this is 192.168.80.30. web1" > /var/www/html/test.html
systemctl start httpd.service

HA节点2.png

Web节点服务器1:192.168.80.40

echo "this is 192.168.80.40. web2" > /var/www/html/test.html
systemctl start httpd.service

HA节点3.png

HA节点4.png


叁、测试Web集群

在客户端使用浏览器打开http://192.168.80.20/test.html ,不断刷新浏览器测试负载均衡效果

HA测试1.png

HA测试2.png


日志定义

默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中。

vim /etc/haproxy/haproxy.cfg
global
    log /dev/log local0 info
    log /dev/log local0 notice

service haproxy restart

HA日志1.png

需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。

vim /etc/rsyslog.d/haproxy.conf

if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
------------------------------
说明:
这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。"&~"表示当日志写入到日志文件后,rsyslog停止处理这个信息。

systemctl restart rsyslog.service
tail -f /var/log/haproxy/haproxy-info.log   #动态追踪查看haproxy的访问请求日志信息

HA日志2.png


Haproxy参数优化

  • [ ] 随着企业网站负载增加,haproxy参数优化相当重要
    • maxconn:最大连接数,根据应用实际情况进行调整,推荐使用10240
    • daemon:守护进程模式,Haproxy可以使用非守护进程模式启动,建议使用守护进程模式启动
    • nbproc:负载均衡的并发进程数,建议与当前服务器CPU核数相等或为其2倍
    • retries:重试次数,主要用于对集群节点的检查,如果节点多,且并发量大,设置为2次或3次
    • option http-server-close:主动关闭http请求选项,建议在生产环境中使用此选项
    • timeout http-keep-alive:长连接超时时间,设置长连接超时时间,可以设置为10s
    • timeout http-request:http请求超时时间,建议将此时间设置为5~10s,增加http连接释放速度
    • timeout client:客户端超时时间,如果访问量过大,节点响应慢,可以将此时间设置短一些,建议设置为1min左右就可以了