Nginx
之前做项目都是用Nginx做反向代理来发布项目,由于时间问题一直没有好好总结一下,
今天就来总结一下Nginx的各种用处!
1、什么是nginx?nginx可以做些什么?
Nginx 是高性能的 HTTP 和反向代理的服务器,处理高并发能力是十分强大的,能经受高负载的考验,有报告表明能支持高达 50,000 个并发连接数,中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。
Nginx提供了正向代理,反向代理,动静分离,负载均衡以及Nginx搭建高可用集群。
2、正向代理
Nginx 不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能。
正向代理:如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。如下图(用visio随便画了一下)
需要在客户端配置代理服务器进行指定网站访问
3、反向代理
反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反向代理服务器由反向代理服务器去选择目标服务器获取数据后,在返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器 IP 地址。
4、负载均衡
客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服务器处理完毕后,再将结果返回给客户端。这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情况呢?
增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡。
5、动静分离
为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度。降低原来单个服务器的压力。
Liunx下安装Nginx
windows下安装就不用说了,下载解压后就可以直接运行用。
nginx官网,点击进去下载:http://nginx.org/
开始进行 nginx 安装
(1 )安装 pcre 依赖
第一步 联网下载 pcre 压缩文件依赖
wget http://downloads.sourceforge.net/project/pcre/pcre/8.37/pcre-8.37.tar.gz
第二步 解压压缩文件
使用命令 tar –xvf pcre-8.37.tar.gz
第三步./configure 完成后,回到 pcre 目录下执行 make ,最后执行 make install
(2 )安装 openssl 、zlib 、 gcc 依赖,联网执行以下命令
yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel
(3)安装 nginx
1、 解压缩 nginx-xx.tar.gz 包。
2、 进入解压缩目录,执行./configure。
3、 make && make install
进入目录 /usr/local/nginx/sbin/nginx 启动服务
这样就成功安装好啦。
在 windows 系统中访问 linux 中 nginx ,默认不能访问的,因为防火墙问题
(1 )关闭防火墙
(2 )开放访问的端口号,80 端口
查看开放的端口号
firewall-cmd --list-all
设置开放的端口号
firewall-cmd --add-service=http –permanent
firewall-cmd --add-port=80/tcp --permanent
重启防火墙
firewall-cmd –reload
再用windows浏览器访问liunx的ip地址
Nginx 的常用的命令
1、启动nginx命令
在/usr/local/nginx/sbin 目录下执行 ./nginx
2、关闭命令
在/usr/local/nginx/sbin 目录下执行 ./nginx -s stop
3、重新加载命令
在/usr/local/nginx/sbin 目录下执行 ./nginx -s reload
Nginx的nginx.conf 配置文件
1、nginx 安装目录下,其默认的配置文件都放在这个目录的 conf 目录下,而主配置文件nginx.conf 也在其中,后续对 nginx 的使用基本上都是对此配置文件进行相应的修改
2 、配置文件中的内容
包含三部分内容
(1 )全局块:配置服务器整体运行的配置指令比如 worker_processes 1; 处理并发数的配置
从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以及配置文件的引入等。这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约。
(2 )events 块 :影响 Nginx 服务器与用户的网络连接比如 worker_connections 1024; 支持的最大连接数为 1024。events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 wordprocess 可以同时支持的最大连接数等。下述例子就表示每个 work process 支持的最大连接数为 1024。这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置
(3 )http 块:
这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。需要注意的是:http 块也可以包括 http 全局块、server 块。
http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等
server 块
这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。
1、全局 server 块
最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。
2、location 块
一个 server 块可以配置多个 location 块。
这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称(也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行
nginx 配置实例-配置反向代理
实例1
实现效果:使用 nginx 反向代理,访问 www .aaa.com 直接跳转到 127.0.0.1:8080
1、 启动一个 tomcat,浏览器地址栏输入 127.0.0.1:8080,会出现如下
2、通过修改本地 host 文件,将 www .aaa.com 映射到 127.0.0.1
host文件的路径在:C:\Windows\System32\drivers\etc
打开hosts文件 在尾部添加 127.0.0.1:8080 www.aaa.com
配置完成之后,我们便可以通过 www.123.com:8080 访问到第一步出现的 Tomcat 初始界面
为什么会这样呢?大家都知道在浏览器输入一个网址中间过程是什么样的吧,不知道的可以去百度一下,这里不讲解
在浏览器输入一个网址首先会在你的本地hosts文件李查找有没有这个网址,有的话就会直接返回这个网址通过对应的ip去访问。
我们知道用户是不用输入端口号的,那么如何只需要输入 www.aaa.com 便可以跳转到 Tomcat 初始界面呢?便用到 nginx的反向代理
在 nginx.conf 做如下配置
如上配置,我们监听 80 端口,访问域名为 www.aaa.com,不加端口号时默认为 80 端口,故访问该域名时会跳转到 127.0.0.1:8080 路径上。在浏览器端输入 www.aaa.com 就会跳转到tomcat的首页了,是不是很简单呐。
实例2
使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中 nginx 监听端口为 8088,
访问 http://127.0.0.1: 8088/aaa/ 直接跳转到 127.0.0.1:8081
访问 http://127.0.0.1: 8088/bbb/ 直接跳转到 127.0.0.1:8082
1、配置两个 tomcat,一个 8001 端口,一个 8002 端口,并准备好测试的页面。
2、修改 nginx 的配置文件 在 http 块中添加 server{ }
location 指令说明
该指令用于匹配 URL。
语法如下:
location [ = | ~ | ~* | ^~] url {
}
1、= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求。
2、~:用于表示 uri 包含正则表达式,并且区分大小写。
3、~*:用于表示 uri 包含正则表达式,并且不区分大小写。
4、^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字
符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location块中的正则 uri 和请求字符串做匹配。
注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识。
nginx 配置实例-负载均衡
首先准备两个同时启动的 Tomcat,
在 nginx 的配置文件中进行负载均衡的配置
nginx 分配服务器策略
第一种 轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 。 掉,能自动剔除。
第二种 weight
weight 代表权重默认为 1, 权重越高被分配的客户端越多
第三种 ip_hash
每个请求按访问 ip 的 的 hash 结果分配,这样每个访客固定访问一个后端服务器
第四种 fair (第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。如下:
nginx 配置实例-动静分离
Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx处理静态页面,Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种,一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。
.进行 nginx 配置
通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资源设定一个过期时间,也就是说无需去 服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用 Expires 来缓存),我这里设置 3d ,表示在这 3 天之内访问这个 URL ,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码 304 ,如果有修改,则直接从服务器重新下载,返回状态码 200
重点是添加 location,
最后检查 Nginx 配置是否正确即可,然后测试动静分离是否成功,之需要删除后端 tomcat服务器上的某个静态文件,查看是否能访问,如果可以访问说明静态资源 nginx 直接返回了,不走后端 tomcat 服务器。
nginx 搭建高可用集群(主从模式)
1、需要什么
(1 )需要两台 nginx 服务器
(2 )需要 keepalived
(3)需要虚拟 ip
2 、配置高可用的准备工作
(1 )需要两台服务器 192.168.17.156 和 192.168.17.157
(2 )在两台服务器安装 nginx
(3 )在两台服务器安装 keepalived
3 、在两台服务器安装 keepalived
(1 ) 使用 yum 命令进行安装
yum install keepalived –y
(2 )安装之后,在 etc 里面生成目录 keepalived ,有文件 keepalived.conf
4 、完成高可用配置(主从配置)
(1 )修改/etc/keepalived/keepalivec.conf 配置文件
global_defs {
notification_email {
acassen@firewall.loc
failover@firewall.loc
sysadmin@firewall.loc
}
notification_email_from Alexandre.Cassen@firewall.loc
smtp_server 192.168.17.156
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_script chk_http_port {
script "/usr/local/src/nginx_check.sh"
interval 2 #(检测脚本执行的间隔)
weight 2
}
vrrp_instance VI_1 {
state BACKUP # 备份服务器上将 MASTER 改为 BACKUP
interface ens33 //网卡
virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.17.50 // VRRP H 虚拟地址
}
}
(2 )在/usr/local/src 添加检测脚本
#!/bin/bash
A=`ps -C nginx –no-header |wc -l`
if [ $A -eq 0 ];then
/usr/local/nginx/sbin/nginx
sleep 2
if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
killall keepalived
fi
fi
(3 )把两台服务器上 nginx 和 和 keepalived 启动
启动 nginx :./nginx
启动 keepalived :systemctl start keepalived.service
5 、最终测试
(1 )在浏览器地址栏输入 虚拟 ip 地址 192.168.17.50
(2 )把主服务器(192.168.17.129 )nginx 和 和 keepalived 停止,再输入 192.168.17.50
一样可以访问到nginx的主页面。
Nginx原理
1 、mater 和 和 worker
2 、worker 如何进行工作的
3 、一个 master 和多个 woker 有好处
(1 )可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作
(2 )每个 woker 是独立的进程,如果有其中的一个 woker 出现问题,其他 woker 独立的,继续进行争抢,实现请求过程,不会造成服务中断
4 、设置多少个 woker 合适
worker 数和服务器的 cpu 数相等是最为适宜的
5 、连接数 worker_connection
第一个:发送请求,占用了 woker 的几个连接数?
答案:2 或者 4 个
第二个:nginx 有一个 个 master ,有四个 woker ,每个 woker 支持最大的连接数 1024 ,支持的最大并发数是多少?
普通的静态访问最大并发数是: worker_connections * worker_processes /2 ,
而如果是 HTTP 作 为反向代理来说,最大并发数量应该是 worker_connections *worker_processes/4
到此为止所有总结就结束了。有哪里不足的希望有大佬指点出来。
学如逆水行舟,不进则退。
一起学习吧!!!!!!!!!!!!