一:什么是负载均衡

当一台服务器的单位时间内访问量越大时,服务器压力就越大,大到超过自身能力承受之时,服务器就会崩溃,为了避免服务器崩溃,让用户有更好的体验,我们通过负载均衡的方式来分担服务器压力。

我们可以建立很多服务器,组成一个服务器集群,当用户访问网站时,先访问一个中间服务器,再让这个中间服务器在服务器集群中选择一个压力较小的服务器,然后将该访问请求引入该服务器,如此以来,用户的每次访问,都会保证服务器集群中每一个服务器的压力趋于平衡,分担了服务器压力,避免了服务器崩溃的情况

负载均衡是通过反向代理的原理实现的二:实现负载均衡

实现效果

在浏览器地址栏输入地址http://101.133.165.241/edu/a.html,负载均衡的效果,请求平均分担到8080和8081端口中

  • 准备工作
  1. 准备两台tomcat服务器,端口分别为8080和8081
  2. 在两台tomcat服务器webapps目录中,创建名称是edu的文件夹,在文件夹中建立一个文件a.html,用于测试。
  • 配置负载均衡

1.进入到nginx的配置文件目录

cd usr/local/nginx/conf/

2.配置nginx.conf文件

vi nginx.conf

 3.在http块定义服务器集群myserver

upstream myserver {
        server  101.133.165.241:8080; 
        server  101.133.165.241:8081;
    }

    server {
        listen       80;
        server_name  101.133.165.241;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {
            proxy_pass http://myserver;
        }

4.重新加载配置文件使其生效

./nginx  -s reload

 

  • 实现效果

windows nginx负载均衡配置 验证 nginx负载均衡配置实例_服务器

windows nginx负载均衡配置 验证 nginx负载均衡配置实例_负载均衡_02

 

二:nginx负载均衡分配策略

  • 第一种:轮询(默认)

每个请求按照时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

upstream myserver {
        server  101.133.165.241:8080; 
        server  101.133.165.241:8081;
    }
  • 第二种:weight

指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的

upstream myserver {
        server  101.133.165.241:8080 weight=2; 
        server  101.133.165.241:8081 weight=8;
    }

 权重越高,被访问到的几率越大,如上例分别是20%和80%。

  • 第三种:ip_hash

上述方式存在一个问题,就是说在负载均衡系统中,假如用户在某台服务器登录了,那么该用户第二次请求的时候,因为我们是负载均衡系统,每次请求都会重新定位到服务器集群中的某一个,那么已经登录某一个服务器的用户再重新定位到另一个服务器,其登录信息就会丢失,这样是不妥的。

我们可以采用ip_hash指令解决这个问题,如果客户已经访问了某个服务器,当用户再次访问时,会将该请求通过哈希算法,自动定位到该服务器。

每个请求按照ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。

upstream myserver {
        ip_hash;
        server  101.133.165.241:8080 ; 
        server  101.133.165.241:8081 ;
    }
  • 第四种:fair(第三方)

按后端服务器响应时间来分配请求,响应时间短的优先分配

upstream myserver {
        server  101.133.165.241:8080 ; 
        server  101.133.165.241:8081 ;
        fair;
    }
  • 第五种:url_hash(第三方)

按访问的url的hash结果来分配请求,使每一个url定向到同一个后端服务器,后端服务器为缓存时比较有效。

upstream myserver {
       server squid1:3128;
       server squid2:3128;
       hash $request_uri;
       hash_method crc32;
    }
  • 每个设备的状态设置为
  1. down表示当前的服务器暂不参与负载
  2. weight默认为1,weight越大,负载的权重越大
  3. max_fails:允许请求失败的参数默认为1,当超过最大次数时,返回proxy_next_upstream模块定义的错误。
  4. fail_timeout:max_fails失败后,暂停的时间
  5. backup:其他所有非backup机器down或者忙的时候,请求backup机器,所以这台机器压力最轻。