【Nginx】Nginx 负载均衡

  • 1. 负载均衡
  • 2. 实现负载均衡的几种常用方式
  • 2.1 轮询(默认)
  • 2.2 weight
  • 2.3 ip_hash
  • 2.4 fair(第三方)


1. 负载均衡

当一台服务器的单位时间内的访问量越大时,服务器压力就越大,大到超过自身承受能力时,服务器就会崩溃。为了避免服务器崩溃,让用户有更好的体验,我们通过负载均衡的方式来分担服务器压力。

我们可以建立很多很多服务器,组成一个服务器集群,当用户访问网站时,先访问一个中间服务器,在让这个中间服务器在服务器集群中选择一个压力较小的服务器,然后将该访问请求引入该服务器。如此以来,用户的每次访问,都会保证服务器集群中的每个服务器压力趋于平衡,分担了服务器压力,避免了服务器崩溃的情况。

nginx 负载 lamp nginx 负载不均衡_服务器


负载均衡是用反向代理的原理实现的。

2. 实现负载均衡的几种常用方式

  • 配置实例
worker_processes  1;

events {
    worker_connections  1024;
}


http {
    include       mime.types;
    default_type  application/octet-stream;

    sendfile        on;

    keepalive_timeout  65;

	# 待选服务器列表
    upstream myserver{
	    server 192.168.0.104;
	    server 192.168.0.106;
    }

    server {
        listen       80;
        server_name  localhost;

        location / {
            root   html;
            # 选择哪个服务器列表
            proxy_pass http://myserver;
            index  index.html index.htm;
        }
    }
}

2.1 轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

upstream myserver {
    server 192.168.0.104;
    server 192.168.0.106;
}

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

2.2 weight

指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。

upstream myserver {
    server 192.168.0.104 weight=3;
    server 192.168.0.106 weight=7;
}

权重越高,在被访问的概率越大,如上例,分别是30%,70%。

2.3 ip_hash

上述方式存在一个问题就是说,在负载均衡系统中,假如用户在某台服务器上登录了,那么该用户第二次请求的时候,因为我们是负载均衡系统,每次请求都会重新定位到服务器集群中的某一个,那么已经登录某一个服务器的用户再重新定位到另一个服务器,其登录信息将会丢失,这样显然是不妥的。

我们可以采用ip_hash指令解决这个问题,如果客户已经访问了某个服务器,当用户再次访问时,会将该请求通过哈希算法,自动定位到该服务器。

每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。

upstream myserver {
    ip_hash;
    server 192.168.0.104;
    server 192.168.0.106;
}

2.4 fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream myserver {
    server 192.168.0.104;
    server 192.168.0.106;
    fair;
}