一、Nginx使用upstream模块配置负载均衡

本机配置好两个tomcat:

# curl http://127.0.0.1:8080
Tomcat 1 test jsp
# curl http://127.0.0.1:8081
Tomcat 2 test jsp


配置Nginx:

# cat nginx.conf
#user  nobody;
worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    include       conf.d/vhost.conf;
    default_type  application/octet-stream;
    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';
     
    #记录用户访问的真实IP
    #log_format  main  '$HTTP_X_REAL_IP - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';
     
    #access_log  logs/access.log  main;
    sendfile        on;
    tcp_nopush     on;
    keepalive_timeout  65;
    gzip  on;
    client_max_body_size 50m;  #缓冲区代理缓冲用户端请求的最大字节数,可以理解为保存到本地再传给用户
    client_body_buffer_size 256k;
    client_header_timeout 3m;
    client_body_timeout 3m;
    send_timeout 3m;
    proxy_connect_timeout 300s; #nginx跟后端服务器连接超时时间(代理连接超时)
    proxy_read_timeout 300s;    #连接成功后,后端服务器响应时间(代理接收超时)
    proxy_send_timeout 300s;    
    proxy_buffer_size 64k;     #设置代理服务器(nginx)保存用户头信息的缓冲区大小
    proxy_buffers 4 32k;       #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
    proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2)
    proxy_temp_file_write_size 64k; #设定缓存文件夹大小,大于这个值,将从upstream服务器传递请求,而不缓冲到磁盘
    proxy_ignore_client_abort on;  #不允许代理端主动关闭连接
     
}


配置负载均衡配置文件:

# cat conf.d/vhost.conf 
upstream mysvr {
         server 127.0.0.1:8080;
         server 127.0.0.1:8081;
        }
server
{
    listen 80;
    server_name 127.0.0.1;
    location / {
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://mysvr;
    }
 
    access_log logs/tomcat1_access.log;
}


重启Nginx测试:(默认分发机制是轮询)

# /opt/nginx/sbin/nginx -s reload

测试:

# curl http://127.0.0.1
Tomcat 1 test jsp
# curl http://127.0.0.1
Tomcat 2 test jsp
# curl http://127.0.0.1
Tomcat 1 test jsp
# curl http://127.0.0.1
Tomcat 2 test jsp

 

二、upstream模块分发方式:

1、轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,负载均衡会自动剔除。

2、weight(指定轮询几率,也叫加权轮询)

weight,指定轮询的几率,weight和访问率成正比,用于后端服务器性能不均的情况,weight参数越高表示权值越大,被分配到的几率就越高。例如:

upstream mysvr {
         server 127.0.0.1:8080 weight=1;
         server 127.0.0.1:8081 weight=2;
}

3、ip_hash

每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session共享的问题,例如:

upstream mysvr {
         ip_hash;
         server 127.0.0.1:8080;
         server 127.0.0.1:8081;
}

4、fair(第三方模块,需要Nginx编译安装时添加模块支持--add-module=/usr/local/gnosek-nginx-upstream-fair-2131c73)

upstream fair 是比内建的负载均衡更加智能的负载均衡模块。它采用的不是内建负载均衡使用的轮换的均衡算法,而是可以根据页面大小、加载时间长短智能的进行负载均衡。例如:

upstream mysvr {
         fair;
         server 127.0.0.1:8080;
         server 127.0.0.1:8081;
}

5、url_hash(第三方模块,需要Nginx编译安装时添加模块支持--add-module=/usr/local/nginx_upstream_hash-0.3.1)。

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效,例如:

upstream mysvr {         
         server 127.0.0.1:8080;         
         server 127.0.0.1:8081;    
         hash $request_uri; 
         hash_method crc32; 
}


三、upstream为每个后端服务器设置状态值,例如:

upstream mysvr{
        ip_hash; 
        server 127.0.0.1:8080 down;
        server 127.0.0.1:8081 weight=2;
        server 127.0.0.1:8082;
        server 127.0.0.1:8083 backup;
}

1.down 表示单前的server暂时不参与负载 

2.weight 默认为1.weight越大,负载的权重就越大。 

3.max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误 

4.fail_timeout:max_fails次失败后,暂停的时间。 

5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。 



更多内容,请关注博主个人博客网站:http://www.whysha.com