负载均衡是在集群环境下通过硬件或软件技术将请求分发到指定的多台服务器,从而提高系统的并发处理能力,保证业务的高可用性的一种技术或设备。
负载均衡分为两大类:硬件负载均衡和软件负载均衡。
硬件负载均衡:最常用的硬件负载设备有F5和netscaler、Redware。其中F5是基于4层负载,netscaler是7层负载。
所谓的四到七层负载均衡,就是在对后台的服务器进行负载均衡时,依据四层的信息或七层的信息来决定怎么转发流量。
四层的负载均衡,就是通过发布三层的IP地址(virtual ip),然后加四层的端口号,来决定哪些流量需要做负载均衡,转发至后台服务器,并记录下这个TCP或者UDP的流量是由哪台服务器处理的,后续这个连接的所有流量都同样转发到同一台服务器处理。
七层的负载均衡,就是在四层的基础上再考虑应用层的特征,比如同一个Web服务器的负载均衡,除了根据VIP(virtual ip)加80端口辨别是否需要处理的流量,还可根据七层的URL、浏览器类别、语言来决定是否要进行负载均衡。举个例子,如果你的Web服务器分成两组,一组是中文语言的,一组是英文语言的,那么七层负载均衡就可以当用户来访问你的域名时,自动辨别用户语言,然后选择对应的语言服务器组进行负载均衡处理。
软件负载均衡:比较主流的开源软件负载技术有lvs、HAProxy、Nginx等,不同的负载均衡技术有不同的特点,比如LVS是基于4层的负载负载技术,抗负载能力比较强,HAProxy和Nginx是基于7层的负载均衡技术,需要根据请求的url进行分流。
负载均衡器通过什么样的方式转发请求,是由负载均衡算法决定的。常见的负载均衡算法有以下几种:
一、轮询算法及加权轮询算
轮询法是指负载均衡服务器将客户端请求按顺序轮流分配到后端服务器上,以达到负载均衡的目的。
假设现在有6个客户端请求,2台后端服务器。当第一个请求到达负载均衡服务器时,负载均衡服务器会将这个请求分派到后端服务器1;当第二个请求到害时,负载均衡服务器会将这个请求分派到后端服务器2。然后第三个请求到达,由于只有两台后端服务器,故请求3会被分派到后端服务器1。
对于后端服务器的性能差异,可以对处理能力较好的服务器增加权重,这样,性能好的服务器能处理更多的任务,性能较差的服务器处理较少的任务。
假设有6个客户端请求,2台后端服务器。后端服务器1被赋予权值5,后端服务器2被赋予赋予权值1。这样一来,客户端请求1,2,3,4,5都被分派到服务器1处理;客户端请求6被分派到服务器2处理。接下来,请求7,8,9,10,11被分派到服务器1,请求12被分派到服务器2。
二、最小连接数
由于不同的客户端请求的操作对于后端来说复杂度是不同的,也就会导致服务端的处理时间也不一样。最小连接数法根据后端服务器当前的连接数情况,动态地选取其中积压连接数最小的一台服务器来处理当前的请求,尽可能提高后端服务器的利用效率,合理地将请求分流到每一台服务器。
三、随机算法
随机法也很简单,就是随机选择一台后端服务器进行请求的处理。由于每次服务器被挑中的概率都一样,客户端的请求可以被均匀地分派到所有的后端服务器上。
四、哈希算法
根据获取客户端的IP地址,通过哈希函数计算得到的一个数值,用该数值对服务器列表的大小进行取模运算,得到的结果便是客服端要访问服务器的序号。采用源地址哈希法进行负载均衡,同一IP地址的客户端,当后端服务器列表不变时,它每次都会映射到同一台后端服务器进行访问。