一、nginx代理
1.常见模式
1.正向代理
2.反向代理
#区别
1.区别在于形式上服务的“对象”不一样
2.正向代理代理的对象是客户端,为客户端服务
3.反向代理代理的对象是服务端,为服务端服务
2.Nginx代理服务支持协议
反向代理模式 |
Nginx配置模块 |
---|
http、websocket、https、tomcat、Java程序 |
ngx_http_proxy_module |
fastcgi(php程序) |
ngx_http_fastcgi_module |
uwsgi(python程序) |
ngx_http_uwsgi_module |
grpc(golang程序) |
ngx_http_v2_module |
3.语法
Syntax: proxy_pass URL;
Default: —
Context: location, if in location, limit_except
二、nginx代理实践
1.环境准备
主机 |
IP |
身份 |
---|
lb01 |
10.0.0.4,172.16.1.4 |
代理服务器 |
web01 |
172.16.1.7 |
被代理的服务器 |
2.配置web01网站
[root@web01 conf.d]# vim proxy.conf
server {
listen 80;
server_name linux.proxy.com;
location / {
root /code/proxy;
index index.html;
}
}
[root@web01 ~]# systemctl restart nginx
3.编写网站
[root@web01 ~]# echo "web01........" > /code/proxy/index.html
4.配置代理
#安装nginx
[root@lb01 ~]# vim /etc/nginx/conf.d/daili.conf
server {
listen 80;
server_name linux.proxy.com;
location / {
proxy_pass http://10.0.0.7:80;
}
}
5.配置hosts
10.0.0.4 linux.proxy.com
6.访问页面查看
访问页面不是域名对应的页面,是web01上面nginx第一个配置文件
使用wireshark抓包分析
可以看出,当我们只用proxy_pass代理的时候,会发现如下问题:
10.0.0.1请求10.0.0.4的时候使用的是域名
10.0.0.4请求10.0.0.7的时候使用的是IP:port
之前课程中讲到,当访问80端口的时候,没有域名的情况下,默认会去找排在最上面的那个配置文件。
所以我们需要解决这个问题,保留住最开始的请求头部信息。
proxy_set_header,这个模块可以帮我们解决这个问题
三、Nginx代理常用参数
1.添加发往后端服务器的请求头信息
Syntax: proxy_set_header field value;
Default: proxy_set_header Host $proxy_host;
proxy_set_header Connection close;
Context: http, server, location
# 用户请求的时候HOST的值是www.oldboy.com, 那么代理服务会像后端传递请求的还是www.oldboy.com
proxy_set_header Host $http_host;
# 将$remote_addr的值放进变量X-Real-IP中,$remote_addr的值为客户端的ip
proxy_set_header X-Real-IP $remote_addr;
# 客户端通过代理服务访问后端服务, 后端服务通过该变量会记录真实客户端地址
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
2. 代理到后端的TCP连接、响应、返回等超时时间
#nginx代理与后端服务器连接超时时间(代理连接超时)
Syntax: proxy_connect_timeout time;
Default: proxy_connect_timeout 60s;
Context: http, server, location
#nginx代理等待后端服务器的响应时间
Syntax: proxy_read_timeout time;
Default: proxy_read_timeout 60s;
Context: http, server, location
#后端服务器数据回传给nginx代理超时时间
Syntax: proxy_send_timeout time;
Default: proxy_send_timeout 60s;
Context: http, server, location
3.proxy_buffer代理缓冲区
#nignx会把后端返回的内容先放到缓冲区当中,然后再返回给客户端,边收边传, 不是全部接收完再传给客户端
Syntax: proxy_buffering on | off;
Default: proxy_buffering on;
Context: http, server, location
#设置nginx代理保存用户头信息的缓冲区大小
Syntax: proxy_buffer_size size;
Default: proxy_buffer_size 4k|8k;
Context: http, server, location
#proxy_buffers 缓冲区
Syntax: proxy_buffers number size;
Default: proxy_buffers 8 4k|8k;
Context: http, server, location
4.配置代理
[root@lb01 ~]# vim /etc/nginx/conf.d/daili.conf
server {
listen 80;
server_name linux.proxy.com;
location / {
proxy_pass http://10.0.0.7:80;
include /etc/nginx/proxy_params;
}
}
5.配置优化文件
[root@lb01 ~]# vim /etc/nginx/proxy_params
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_connect_timeout 30;
proxy_send_timeout 60;
proxy_read_timeout 60;
proxy_buffering on;
proxy_buffer_size 32k;
proxy_buffers 4 128k;
四、Nginx负载均衡
1.为什么做负载均衡
当我们的Web服务器直接面向用户,往往要承载大量并发请求,单台服务器难以负荷,我使用多台Web服务器组成集群,前端使用Nginx负载均衡,将请求分散的打到我们的后端服务器集群中,实现负载的分发。那么会大大提升系统的吞吐率、请求性能、高容灾
往往我们接触的最多的是SLB(Server Load Balance)负载均衡,实现最多的也是SLB、那么SLB它的调度节点和服务节点通常是在一个地域里面。那么它在这个小的逻辑地域里面决定了他对部分服务的实时性、响应性是非常好的。
所以说当海量用户请求过来以后,它同样是请求调度节点,调度节点将用户的请求转发给后端对应的服务节点,服务节点处理完请求后在转发给调度节点,调度节点最后响应给用户节点。这样也能实现一个均衡的作用,那么Nginx则是一个典型的SLB
2.负载均衡的叫法
负载均衡
负载
Load Balance
LB
3.公有云中叫法
1.SLB 阿里云产品
2.LB 青云产品
3.CLB 腾讯云产品
4.ULB ucloud产品
4.常见的负载均衡软件
Nginx
Haproxy
LVS
#LVS是最快的负载均衡软件
5.负载均衡类型
1.四层负载均衡
所谓四层负载均衡指的是OSI七层模型中的传输层,那么传输层Nginx已经能支持TCP/IP的控制,所以只需要对客户端的请求进行TCP/IP协议的包转发就可以实现负载均衡,那么它的好处是性能非常快、只需要底层进行应用处理,而不需要进行一些复杂的逻辑。
2.七层负载均衡
七层负载均衡它是在应用层,那么它可以完成很多应用方面的协议请求,比如我们说的http应用的负载均衡,它可以实现http信息的改写、头信息的改写、安全应用规则控制、URL匹配规则控制、以及转发、rewrite等等的规则,所以在应用层的服务里面,我们可以做的内容就更多,那么Nginx则是一个典型的七层负载均衡SLB
五、Nginx负载均衡配置
Nginx要实现负载均衡需要用到proxy_pass代理模块配置.
Nginx负载均衡与Nginx代理不同地方在于,Nginx的一个location仅能代理一台服务器,而Nginx负载均衡则是将客户端请求代理转发至一组upstream虚拟服务池.
1.语法模块 ngx_http_upstream_module
Syntax: upstream name { ... }
Default: —
Context: http
upstream backend {
server backend1.example.com weight=5;
server backend2.example.com:8080;
server backup1.example.com:8080 backup;
server backup2.example.com:8080 backup;
}
server {
location / {
proxy_pass http://backend;
}
}
2.环境准备
主机 |
外网ip |
身份 |
---|
lb01 |
10.0.0.4,172.16.1.4 |
负载均衡 |
web01 |
172.16.1.7 |
web |
web03 |
172.16.1.9 |
web |
3.操作web01
1)配置nginx
[root@web01 conf.d]# vim linux.node.com.conf
server {
listen 80;
server_name linux.node.com;
charset utf-8;
location / {
root /code/node;
inde index.html;
}
}
2)配置站点
[root@web01 conf.d]# mkdir /code/node
[root@web01 conf.d]# echo "我是web01......" > /code/node/index.html
3)配置hosts
10.0.0.7 linux.node.com
#重启访问
[root@web01 conf.d]# systemctl restart nginx
4.操作web03
[root@web03 conf.d]# vim linux.node.com.conf
server {
listen 80;
server_name linux.node.com;
charset utf-8;
location / {
root /code/node;
inde index.html;
}
}
2)配置站点
[root@web03 conf.d]# mkdir /code/node
[root@web03 conf.d]# echo "我是web03......" > /code/node/index.html
3)配置hosts
10.0.0.9 linux.node.com
#重启访问
[root@web03 conf.d]# systemctl restart nginx
5.配置负载均衡配置文件
[root@lb01 conf.d]# vim node_proxy.conf
upstream web {
server 172.16.1.7:80;
server 172.16.1.8:80;
}
server {
listen 80;
server_name linux.node.com;
location / {
proxy_pass http://web;
include proxy_params;
}
}
6.配置优化文件
[root@Nginx ~]# vim /etc/nginx/proxy_params
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_connect_timeout 30;
proxy_send_timeout 60;
proxy_read_timeout 60;
proxy_buffering on;
proxy_buffer_size 32k;
proxy_buffers 4 128k;
7.访问页面测试
六、nginx 调度算法
调度算法 |
概述 |
---|
轮询 |
按时间顺序逐一分配到不同的后端服务器(默认) |
weight |
加权轮询,weight值越大,分配到的访问几率越高 |
ip_hash |
每个请求按访问IP的hash结果分配,这样来自同一IP的固定访问一个后端服务器 |
url_hash |
按照访问URL的hash结果来分配请求,是每个URL定向到同一个后端服务器 |
least_conn |
最少链接数,那个机器链接数少就分发 |
1.轮询配置方法
upstream node {
server 172.16.1.7:80;
server 172.16.1.8:80;
}
2.加权轮询配置方法
#访问根据配置的权重比例进行分配
upstream node {
server 172.16.1.7:80 weight=5;
server 172.16.1.8:80 weight=1;
}
3.ip_hash的配置方法
#根据访问的来源IP分配至同一台服务器
upstream node {
server 172.16.1.7:80;
server 172.16.1.8:80;
ip_hash;
}
#经常使用这种方式进行会话保持