1.什么是Nginx
百度百科中Nginx的介绍为
用一句话总结:Nginx 是⼀个⾼性能的HTTP和反向代理web服务器,核⼼特点是占有内存少,并发能⼒强。
Nginx的应用场景可以分为:Http服务器(WEB服务器)、反向代理、负载均衡服务器、动静分离。
Nginx的特点:
- 跨平台:Nginx可以在⼤多数类unix操作系统上编译运⾏,⽽且也有windows版本
- Nginx的上⼿⾮常容易,配置也⽐较简单
- ⾼并发,性能好
- 稳定性也特别好,宕机概率很低
2.安装nginx
这里使用的安装包方式安装的nginx,也可以使用docker进行安装
1.上传nginx安装包到linux服务器,nginx安装包(.tar⽂件)下载地址:nginx news
2.安装Nginx依赖,pcre、openssl、gcc、zlib(推荐使⽤yum源⾃动安装)
# yum -y install gcc zlib zlib-devel pcre-devel openssl openssl-devel
3.解包Nginx软件包
# tar -xvf nginx-1.17.8.tar
4.进⼊解压之后的⽬录 nginx-1.17.8
# cd nginx-1.17.8
5.命令⾏执⾏
# ./configure
6.命令⾏执⾏
# make
7.命令⾏执⾏
# make install
8. 完毕之后在/usr/local/下会产⽣⼀个nginx⽬录,Nginx安装完毕
启动nginx
# cd nginx/sbin
# ./nginx
然后访问服务器的80端⼝(nginx默认监听80端⼝)
Nginx主要命令
启动nginx
# ./nginx
终⽌nginx(当然也可以找到nginx进程号,然后使⽤kill -9 杀掉nginx进程)
# ./nginx -s stop
重新加载nginx.conf配置⽂件
# ./nginx -s reload
3.Nginx核⼼配置⽂件解读
Nginx的核⼼配置⽂件conf/nginx.conf包含三块内容:全局块、events块、http块
全局块
从配置⽂件开始到events块之间的内容,此处的配置影响nginx服务器整体的运⾏,⽐如worker进 程的数量、错误⽇志的位置等
events块
events块主要影响nginx服务器与⽤户的⽹络连接,⽐如worker_connections 1024,标识每个 workderprocess⽀持的最⼤连接数为1024
http块
http块是配置最频繁的部分,虚拟主机的配置,监听端⼝的配置,请求转发、反向代理、负载均衡 等
4.Nginx应⽤场景之反向代理
这里就是用Nginx反向代理tomcat服务器做个实例,过程中就省略tomcat的安装过程
4.1 部署Tomcat
4.2 修改nginx配置,并重新加载
4.3 重新加载nginx配置
# ./nginx -s reload
4.4测试,访问http://192.168.8.128,返回tomcat的⻚⾯
一个简单的nginx反向代理就完成了。
5.Nginx应⽤场景之负载均衡
使用nginx反向代理多台tomcat服务器并实现负载均衡。
需求:访问 http://192.168.8.128/tomcat实现负载端口为8080、8081、8082三台tomcat服务器
1.搭建tomcat服务
2.修改nginx配置文件
upstream demoServer{
server 192.168.8.128:8080;
server 192.168.8.128:8081;
server 192.168.8.128:8082;
}
location /tomcat {
proxy_pass http://demoServer/;
}
3.重新加载配置文件
# ./nginx -s reload
4.测试
第一次访问的是8080
第二次访问的是8081
第三次访问的是8082
一个简单的负载均衡就搭建好了
Nginx负载均衡策略
轮询
默认策略,每个请求按时间顺序逐⼀分配到不同的服务器,如果某⼀个服务器下线,能⾃动剔除
weight
weight代表权重,默认每⼀个负载的服务器都为1,权重越⾼那么被分配的请求越多(⽤于服务器 性能不均衡的场景
upstream demoServer{
server 192.168.8.128:8080 weight=1;
server 192.168.8.128:8081 weight=2;
server 192.168.8.128:8082 weight=3;
}
ip_hash
每个请求按照ip的hash结果分配,每⼀个客户端的请求会固定分配到同⼀个⽬标服务器处理,可 以解决session问题
upstream demoServer{
ip_hash;
server 192.168.8.128:8080;
server 192.168.8.128:8081;
server 192.168.8.128:8082;
}
6.Nginx应⽤场景之动静分离
动静分离就是讲动态资源和静态资源的请求处理分配到不同的服务器上,⽐较经典的组合就是 Nginx+Tomcat架构(Nginx处理静态资源请求,Tomcat处理动态资源请求),那么其实之前的讲解 中,Nginx反向代理⽬标服务器Tomcat,我们能看到⽬标服务器ROOT项⽬的index.jsp,这本身就是 Tomcat在处理动态资源请求了。
所以,我们只需要配置静态资源访问即可。
1.准备静态资源并放到服务其中
<!DOCTYPE html>
<html>
<head>
<meta charset="UTF-8">
<title></title>
</head>
<body>
<h1>hello nginx!这里放的是静态资源</h1>
</body>
</html>
2.修改nginx配置文件
location /static/ {
root staticData;
}
3.重新加载配置文件
# ./nginx -s reload
4.访问 http://192.168.8.128/static/a.html
7.Nginx底层进程机制剖析
Nginx启动后,以daemon多进程⽅式在后台运⾏,包括⼀个Master进程和多个Worker进程,Master 进程是领导,是⽼⼤,Worker进程是⼲活的⼩弟。
master进程
主要是管理worker进程,⽐如: 接收外界信号向各worker进程发送信号(./nginx -s reload) 监控worker进程的运⾏状态,当worker进程异常退出后Master进程会⾃动重新启动新的 worker进程等
worker进程
worker进程具体处理⽹络请求。多个worker进程之间是对等的,他们同等竞争来⾃客户端的请 求,各进程互相之间是独⽴的。⼀个请求,只可能在⼀个worker进程中处理,⼀个worker进程, 不可能处理其它进程的请求。worker进程的个数是可以设置的,⼀般设置与机器cpu核数一致。
以 ./nginx -s reload 来说明nginx信号处理这部分
1)master进程对配置⽂件进⾏语法检查
2)尝试配置(⽐如修改了监听端⼝,那就尝试分配新的监听端⼝)
3)尝试成功则使⽤新的配置,新建worker进程
4)新建成功,给旧的worker进程发送关闭消息
5)旧的worker进程收到信号会继续服务,直到把当前进程接收到的请求处理完毕后关闭 所以reload之后worker进程pid是发⽣了变化的
worker进程处理请求部分的说明
例如,我们监听9003端⼝,⼀个请求到来时,如果有多个worker进程,那么每个worker进程都有 可能处理这个链接。
master进程创建之后,会建⽴好需要监听的的socket,然后从master进程再fork出多个 worker进程。所以,所有worker进程的监听描述符listenfd在新连接到来时都变得可读。
nginx使⽤互斥锁来保证只有⼀个workder进程能够处理请求,拿到互斥锁的那个进程注册 listenfd读事件,在读事件⾥调⽤accept接受该连接,然后解析、处理、返回客户端 。
nginx多进程模型好处
1.每个worker进程都是独⽴的,不需要加锁,节省开销
2.每个worker进程都是独⽴的,互不影响,⼀个异常结束,其他的照样能提供服务
3.多进程模型为reload热部署机制提供了⽀撑。