参考:http://5iwww.blog.51cto.com/856039/267278
官网:http://www.linuxvirtualserver.org
1、架构图:
2、虚拟服务器:主要功能是提供包转发和负载均衡,这个功能可以通过编写ipvsadm脚本实现
故障隔离:虚拟服务器中的某个真实服务器失效或发生故障,系统将自动把失效的服务器从转发队列中清理出去。另外当失效的服务器被修复以后,系统再自动将其加入转发队列。
失败切换:假设负载均衡器发生故障,在有两个负载均衡器应用的场景中,备份的负载均衡器就能自动接替工作。另外一旦主均衡器恢复,两种将回到最初的角色中。
两个工具可以实现以上三种情况:Ipvsadm和Keepalived (Heartbeat也行,就是现实有点复杂)
3、负载均衡种类:
目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR)
通过网络地址转换,调度器重写请求报文的目标地址,根据预设的调度算法,将请求分派给后端的真实服务器;真实服务器的响应报文通过调度器时,报文的源地址被重写,再返回给客户,完成整个负载调度过程。
采用NAT技术时,由于请求和响应报文都必须经过调度器地址重写,当客户请求越来越多时,调度器的处理能力将成为瓶颈。为了解决这个问题,调度器把请求报文通过IP隧道转发至真实服务器,而真实服务器将响应直接返回给客户,所以调度器只处理请求报文。由于一般网络服务应答比请求报文大许多,采用 VS/TUN技术后,集群系统的最大吞吐量可以提高10倍。
VS/DR通过改写请求报文的MAC地址,将请求发送到真实服务器,而真实服务器将响应直接返回给客户。同VS/TUN技术一样,VS/DR技术可极大地提高集群系统的伸缩性。这种方法没有IP隧道的开销,对集群中的真实服务器也没有必须支持IP隧道协议的要求,但是要求调度器与真实服务器都有一块网卡连在同一物理网段上。
调度器通过"轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。
调度器通过"加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
调度器通过"最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好地均衡负载。
在集群系统中的服务器性能差异较大的情况下,调度器采用"加权最少链接"调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
开始部署:
负载服务器master真实IP 10.48.30.191
负载服务器backup真实IP 10.48.30.192
负载服务器虚拟IP 10.48.30.253
后端WEB服务器IP 10.48.30.199
后端WEB服务器IP 10.48.30.198
负载均衡种类采用DR方式
负载均衡调度算法采用rr方式
1、安装ipvs。
我的linux系统是ubuntu 10.04,所以我采用了apt-get install ipvsadm 的方式安装,
这种方式安装后软件版本是ipvsadm v1.25 2008/5/15
然后启动 直接输入命令 ipvsadm
验证是否已加载该内核模块 lsmod | grep ip_vs(貌似不能以进程的方式判断ipvs是否运行)
开启路由转发功能 echo "1" >/proc/sys/net/ipv4/ip_forward
或者可以编辑 /etc/sysctl.conf文件,使得net.ipv4.ip_forward = 1
建立负载服务器启动脚本:
#!/bin/bash
VIP=10.48.30.253
RIP1=10.48.30.199
RIP2=10.48.30.198
case "$1" in
start)
echo "start LVS of DirectorServer"
/sbin/ifconfig eth0:1 $VIP broadcast $VIP netmask 255.255.255.255 up
/sbin/route add -host $VIP dev eth0:1
#Clear IPVS Table
/sbin/ipvsadm -C
#Set Lvs
/sbin/ipvsadm -A -t $VIP:80 -s rr //在内核中添加一条虚拟服务器记录
/sbin/ipvsadm -a -t $VIP:80 -r $RIP1:80 -g //在内核虚拟服务器表的一条记录里添加一条新的真实服务器
/sbin/ipvsadm -a -t $VIP:80 -r $RIP2:80 -g
#Run Lvs
/sbin/ipvsadm
;;
stop)
echo "Close LVS Directorserver"
/sbin/ifconfig eth0:1 down
/sbin/ipvsadm -C //清除内核虚拟服务器表中的所有记录。
;;
*)
echo "Usage0{start|stop}"
exit 1
esac
2、LVS客户端配置
客户端是指真实的服务器,我这儿的两台服务器是10.48.30.199和10.48.30.198
lvs的客户端是不需要安装额外的软件的,下面给出直接路由的配置方式,只要写一个脚本即可:
vim /usr/local/bin/realserver
#!/bin/bash
#description:start or stop real web server
vip=10.48.30.253
case "$1" in
start)
echo "start lvs of realserver"
/sbin/ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
;;
stop)
/sbin/ifconfig lo:0 down
echo "close LVS Directorserver"
echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce
;;
*)
echo "Usage:$0 {start|stop}"
exit 1
esac
写完以后,运行命令:realserver start
验证:ip add ,可以看到“inet 10.48.30.253/32 brd 10.48.30.253 scope global lo:0”这行信息,表明成功了。
3、安装keepalived
首先下载源码并解压。
然后安装依赖包:apt-get install libpopt-dev coinor-libipopt-dev
进入目录:./configure --prefix=/usr/local/keepalived
make && make install
cd /usr/local/keepalived/etc/keepalived/
备份默认的配置文件:cp keepalived.conf keepalived.conf.bak
编辑keepalived.conf
! Configuration File for keepalived
lvs_id string //定义负载均衡表示,一个网络内,这是唯一的
}
state MASTER //备份服务器设置为backup
interface eth0
virtual_router_id 51 //master和backup的值应该是一致的,同时在整个VRRP内是唯一的
priority 100 ////备份服务器设置小于100
advert_int 1 //master和backup之间同步检查的时间间隔,单位为秒
authentication {
auth_type PASS
auth_pass 123456
} //验证类型和密码,同一个vrrp内master和backup使用相同的密码
10.48.30.253
}//可以设置多个,每个地址占一行
}
delay_loop 6 //隔6秒查询
lb_algo rr //lvs算法,互联网应用常使用wlc和rr
lb_kind DR //负载均衡转发规则
persistence_timeout 60 //同一IP的连接60秒内被分配到同一台realserver
inhibit_on_failure //当web挂掉的时候,前面请求的用户,可以继续打开网页,但是后面的请求不会调度到挂掉的web上面。
protocol TCP //用TCP协议检查realserver状态
weight 1 //权重,性能较好的机子分的权值大一些
TCP_CHECK {
connect_timeout 10 //10秒无响应超时
nb_get_retry 3
delay_before_retry 3
}
}
weight 3
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
}