一.Nginx反向代理调度器(7层代理服务器调度器)
问题
使用Nginx实现Web反向代理功能,实现如下功能:
后端Web服务器两台,可以使用httpd实现
Nginx采用轮询的方式调用后端Web服务器
两台Web服务器的权重要求设置为不同的值
最大失败次数为1,失败超时时间为30秒
方案
使用4台RHEL7虚拟机,其中一台作为Nginx代理服务器,该服务器需要配置两块网卡,IP地址分别为192.168.4.5和192.168.2.5,两台Web服务器IP地址分别为192.168.2.100和192.168.2.200。客户端测试主机IP地址为192.168.4.10。如图-1所示。
部署实施后端Web服务器
- 部署后端Web1服务器
后端Web服务器可以简单使用yum方式安装httpd实现Web服务,为了可以看出后端服务器的不同,可以将两台后端服务器的首页文档内容设置为不同的内容。
[root@web1 ~]# yum -y install httpd
[root@web1 ~]# echo "192.168.2.100" > /var/www/html/index.html
[root@web1 ~]# systemctl restart httpd
- 部署后端Web2服务器
[root@web2 ~]# yum -y install httpd
[root@web2 ~]# echo "192.168.2.200" > /var/www/html/index.html
[root@web2 ~]# systemctl restart httpd
配置Nginx服务器,添加服务器池,实现反向代理功能
- 修改/usr/local/nginx/conf/nginx.conf配置文件
[root@proxy ~]# vim /usr/local/nginx/conf/nginx.conf
.. ..
http {
.. ..
upstream webserver {
server 192.168.2.100:80; #使用upstream定义后端服务器集群,集群名称任意(如webserver)
server 192.168.2.200:80; #使用server定义集群中的具体服务器和端口
}
.. ..
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://webserver; #通过proxy_pass将用户的请求转发给webserver集群
root html;
index index.html index.htm;
}
}
- 重新加载配置
[root@proxy ~]# /usr/local/nginx/sbin/nginx -s reload
请先确保nginx是启动状态,否则运行该命令会报错,报错信息如下:
[error] open() "/usr/local/nginx/logs/nginx.pid" failed (2: No such file or directory)
- 客户端使用浏览器访问代理服务器测试轮询效果
[root@client ~]# curl http://192.168.4.5 //使用该命令多次访问查看效果
[root@client ~]# curl http://192.168.4.5 //使用该命令多次访问查看效果
配置upstream服务器集群池属性
- 设置失败次数,超时时间,权重weight可以设置后台服务器的权重,max_fails可以设置后台服务器的失败次数,fail_timeout可以设置后台服务器的失败超时时间。
[root@proxy ~]# vim /usr/local/nginx/conf/nginx.conf
.. ..
http {
.. ..
upstream webserver {
server 192.168.2.100 weight=1 max_fails=1 fail_timeout=30;
server 192.168.2.200 weight=2 max_fails=2 fail_timeout=30;
server 192.168.2.101 down;
}
#weight设置服务器权重值,默认值为1
#max_fails设置最大失败8次数,测试服务器几次才确认服务器失败
#fail_timeout设置访问失败后再次访问间隔时间,单位为秒
#down标记服务器已关机,不参与集群调度(如果某天机器坏掉需要几天时间修理,现在则可以为这个主机地址后加dawn)
.. ..
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://webserver;
}
}
- 重新加载配置
[root@proxy ~]# /usr/local/nginx/sbin/nginx -s reload
#请先确保nginx是启动状态,否则运行该命令会报错,报错信息如下:
#[error] open() "/usr/local/nginx/logs/nginx.pid" failed (2: No such file or directory)
- 关闭一台后端服务器(如web1)
[root@web1 ~]# systemctl stop httpd
- 客户端使用浏览器访问代理服务器测试轮询效果
[root@client ~]# curl http://192.168.4.5 //使用该命令多次访问查看效果
- 再次启动后端服务器的httpd(如web1)
[root@web1 ~]# systemctl start httpd
- 客户端再次使用浏览器访问代理服务器测试轮询效果
[root@client ~]# curl http://192.168.4.5 //使用该命令多次访问查看效果
配置upstream服务器集群的调度算法
原地址哈希(ip_hash):相同的客户端始终访问相同的服务器
- 设置相同客户端访问相同Web服务器
[root@proxy ~]# vim /usr/local/nginx/conf/nginx.conf
.. ..
http {
.. ..
upstream webserver {
ip_hash; #通过ip_hash设置调度规则为:相同客户端访问相同服务器
server 192.168.2.100 weight=1 max_fails=2 fail_timeout=10;
server 192.168.2.200 weight=2 max_fails=2 fail_timeout=10;
}
.. ..
server {
listen 80;
server_name www.tarena.com;
location / {
proxy_pass http://webserver;
}
}
- 重新加载配置
[root@proxy ~]# /usr/local/nginx/sbin/nginx -s reload
请先确保nginx是启动状态,否则运行该命令会报错,报错信息如下:
[error] open() "/usr/local/nginx/logs/nginx.pid" failed (2: No such file or directory)
- 客户端使用浏览器访问代理服务器测试轮询效果
[root@client ~]# curl http://192.168.4.5 //使用该命令多次访问查看效果
七层调度器只能做网站代理,四层调度器基于(TCP/UDP)几乎可以做任何服务的代理
二.Nginx的TCP/UDP调度器(4层代理服务器调度器)
问题
使用Nginx实现TCP/UDP调度器功能,实现如下功能:
后端SSH服务器两台
Nginx从1.9版本才开始支持该模块
Nginx编译安装时需要使用–with-stream,开启ngx_stream_core_module模块
Nginx采用轮询的方式调用后端SSH服务器
方案
使用4台RHEL7虚拟机,其中一台作为Nginx代理服务器,该服务器需要配置两块网卡,IP地址分别为192.168.4.5和192.168.2.5,两台SSH服务器IP地址分别为192.168.2.100和192.168.2.200。客户端测试主机IP地址为192.168.4.10。
部署支持4层TCP/UDP代理的Nginx服务器
- 部署nginx服务器
编译安装必须要使用–with-stream参数开启4层代理模块。
[root@proxy ~]# yum -y install gcc pcre-devel openssl-devel //安装依赖包
[root@proxy ~]# tar -xf nginx-1.12.2.tar.gz
[root@proxy ~]# cd nginx-1.12.2
[root@proxy nginx-1.12.2]# ./configure \
> --with-http_ssl_module \ //开启SSL加密功能
> --with-stream //开启4层反向代理功能
[root@proxy nginx-1.12.2]# make && make install //编译并安装
配置Nginx服务器,添加服务器池,实现TCP/UDP反向代理功能
- 修改/usr/local/nginx/conf/nginx.conf配置文件
书写的所有TCP/UDP反向代理参数不能写在http里面,写在http上面
[root@proxy ~]# vim /usr/local/nginx/conf/nginx.conf
stream {
upstream backend { //定义集群
server 192.168.2.100:22; //后端SSH服务器的IP和端口如果是mysql集群端口就写为3306
server 192.168.2.200:22;
}
server {
listen 12345; //Nginx监听的端口12345
地址冲突问题
网络原则:ip地址唯一对应一台主机,端口唯一对应一个服务(两个服务不能使用一个端口)
当两个服务都想霸占一个端口时会产生冲突,所以不能使用22端口进行监听.
proxy_pass backend;
}
}
http {
.. ..
}
- 重新加载配置
[root@proxy ~]# /usr/local/nginx/sbin/nginx -s reload
#请先确保nginx是启动状态,否则运行该命令会报错,报错信息如下:
#[error] open() "/usr/local/nginx/logs/nginx.pid" failed (2: No such file or directory)
- 客户端使用访问代理服务器测试轮询效果
[root@client ~]# ssh 192.168.4.5 -p 12345 //使用该命令多次访问查看效果
三.Nginx常见问题处理优化
问题
本案例要求对Nginx服务器进行适当优化,解决如下问题,以提升服务器的处理性能:
如何自定义返回给客户端的404错误页面
如何查看服务器状态信息
如果客户端访问服务器提示“Too many open files”如何解决
如何解决客户端访问头部信息过长的问题
如何让客户端浏览器缓存数据
客户机访问此Web服务器验证效果:
使用ab压力测试软件测试并发量
编写测试脚本生成长头部信息的访问请求
客户端访问不存在的页面,测试404错误页面是否重定向
自定义报错页面
- 优化前,客户端使用浏览器访问不存在的页面,会提示404文件未找到
[root@client ~]# firefox http://192.168.4.5/xxxxx //访问一个不存在的页面
- 修改Nginx配置文件,自定义报错页面
[root@proxy ~]# vim /usr/local/nginx/conf/nginx.conf
.. ..
charset utf-8; //仅在需要中文时修改该选项
error_page 404 /404.html; //自定义错误页面
.. ..
[root@proxy ~]# vim /usr/local/nginx/html/404.html //生成错误页面
Oops,No NO no page …
[root@proxy ~]# nginx -s reload
#请先确保nginx是启动状态,否则运行该命令会报错,报错信息如下:
#[error] open() "/usr/local/nginx/logs/nginx.pid" failed (2: No such file or directory)
- 优化后,客户端使用浏览器访问不存在的页面,会提示自己定义的40x.html页面
[root@client ~]# firefox http://192.168.4.5/xxxxx //访问一个不存在的页面
- 常见http状态码
常见http状态码可用参考表所示,200一切正常,300代表重定向,400代表用户错了,500代表服务器错了
如何查看服务器状态信息(非常重要的功能)
- 编译安装时使用–with-http_stub_status_module开启状态页面模块
[root@proxy ~]# tar -zxvf nginx-1.12.2.tar.gz
[root@proxy ~]# cd nginx-1.12.2
[root@proxy nginx-1.12.2]# ./configure \
> --with-http_ssl_module //开启SSL加密功能
> --with-stream //开启TCP/UDP代理模块
> --with-http_stub_status_module //开启status状态页面
[root@proxy nginx-1.12.2]# make && make install //编译并安装
- 启用Nginx服务并查看监听端口状态
ss命令可以查看系统中启动的端口信息,该命令常用选项如下:
-a显示所有端口的信息
-n以数字格式显示端口号
-t显示TCP连接的端口
-u显示UDP连接的端口
-l显示服务正在监听的端口信息,如httpd启动后,会一直监听80端口
-p显示监听端口的服务名称是什么(也就是程序名称)
注意:在RHEL7系统中可以使用ss命令替代netstat命令,功能一样,选项一样。
[root@proxy ~]# /usr/local/nginx/sbin/nginx
[root@proxy ~]# netstat -anptu | grep nginx
tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 10441/nginx
[root@proxy ~]# ss -anptu | grep nginx
- 修改Nginx配置文件,定义状态页面
[root@proxy ~]# cat /usr/local/nginx/conf/nginx.conf
… …
location /status {
stub_status on;
#allow IP地址;
#deny IP地址;
}
… …
[root@proxy ~]# nginx
- 优化后,查看状态页面信息
[root@proxy ~]# curl http://192.168.4.5/status
Active connections: 1
server accepts handled requests
10 10 3
Reading: 0 Writing: 1 Waiting: 0
Active connections:当前活动的连接数量。
Accepts:已经接受客户端的连接总数量。
Handled:已经处理客户端的连接总数量。
(一般与accepts一致,除非服务器限制了连接数量)。
Requests:客户端发送的请求数量。
Reading:当前服务器正在读取客户端请求头的数量。
Writing:当前服务器正在写响应信息的数量。
Waiting:当前多少客户端在等待服务器的响应。
优化Nginx并发量
- 优化前使用ab高并发测试
[root@proxy ~]# ab -n 2000 -c 2000 http://192.168.4.5/
Benchmarking 192.168.4.5 (be patient)
socket: Too many open files (24) //提示打开文件数量过多
- 修改Nginx配置文件,增加并发量
[root@proxy ~]# vim /usr/local/nginx/conf/nginx.conf
.. ..
worker_processes 2; //与CPU核心数量一致
events {
worker_connections 65535; //每个worker最大并发连接数
}
.. ..
[root@proxy ~]# nginx -s reload
- 优化Linux内核参数(最大文件数量)
[root@proxy ~]# ulimit -a //查看所有属性值
[root@proxy ~]# ulimit -Hn 100000 //设置硬限制(临时规则)
[root@proxy ~]# ulimit -Sn 100000 //设置软限制(临时规则)
[root@proxy ~]# vim /etc/security/limits.conf
.. ..
* soft nofile 100000
* hard nofile 100000
#该配置文件分4列,分别如下:
#用户或组 硬限制或软限制 需要限制的项目 限制的值
- 优化后测试服务器并发量(因为客户端没调内核参数,所以在proxy测试)
[root@proxy ~]# ab -n 2000 -c 2000 http://192.168.4.5/
优化Nginx数据包头缓存
- 优化前,使用脚本测试长头部请求是否能获得响应
[root@proxy ~]# cat lnmp_soft/buffer.sh
#!/bin/bash
URL=http://192.168.4.5/index.html?
for i in {1..5000}
do
URL=${URL}v$i=$i
done
curl $URL //经过5000次循环后,生成一个长的URL地址栏
[root@proxy ~]# ./buffer.sh
.. ..
<center><h1>414 Request-URI Too Large</h1></center> //提示头部信息过大
- 修改Nginx配置文件,增加数据包头部缓存大小
[root@proxy ~]# vim /usr/local/nginx/conf/nginx.conf
.. ..
http {
client_header_buffer_size 1k; //默认请求包头信息的缓存
large_client_header_buffers 4 4k; //大请求包头部信息的缓存个数与容量
.. ..
}
[root@proxy ~]# nginx -s reload
- 优化后,使用脚本测试长头部请求是否能获得响应
[root@proxy ~]#cat cat buffer.sh
#!/bin/bash
URL=http://192.168.4.5/index.html?
for i in {1..5000}
do
URL=${URL}v$i=$i
done
curl $URL
[root@proxy ~]# ./buffer.sh
浏览器本地缓存静态数据
1)使用Firefox浏览器查看缓存
以Firefox浏览器为例,在Firefox地址栏内输入about:cache将显示Firefox浏览器的缓存信息,如图所示,点击List Cache Entries可以查看详细信息。
2)清空firefox本地缓存数据,如图所示。
- 修改Nginx配置文件,定义对静态页面的缓存时间
[root@proxy ~]# vim /usr/local/nginx/conf/nginx.conf
server {
listen 80;
server_name localhost;
location / {
root html;
index index.html index.htm;
}
location ~* \.(jpg|jpeg|gif|png|css|js|ico|xml)$ {
expires 30d; //定义客户端缓存时间为30天
}
}
[root@proxy ~]# cp /usr/share/backgrounds/day.jpg /usr/local/nginx/html
[root@proxy ~]# nginx -s reload
#请先确保nginx是启动状态,否则运行该命令会报错,报错信息如下:
#[error] open() "/usr/local/nginx/logs/nginx.pid" failed (2: No such file or directory)
- 优化后,使用Firefox浏览器访问图片,再次查看缓存信息
[root@client ~]# firefox http://192.168.4.5/day.jpg