1、优化方法论

从软件层面提升硬件使用效率

  • 增大CPU的利用率
  • 增大内存的利用率
  • 增大磁盘IO的利用率
  • 增大网络带宽的利用率

提升硬件规格

  • 网卡:万兆网卡,例如10G, 25G, 40G等
  • 磁盘:固态硬盘
  • CPU:更快的主频,更多的核心,更大的缓存,更优的架构
  • 内存:更快的访问速度

2、Nginx相关优化配置

2.1如何增大Nginx使用CPU的有效时长

能够使用全部CPU资源

  • master-worker多进程架构
    worker进程数量应当小于等于CPU核数

Nginx进程间不做无用功浪费CPU资源

  • worker进程不应在繁忙时,主动让出CPU
  • worker进程间不应由于争抢造成资源耗散
  • worker进程数量应当等于CPU核数
  • worker进程不应调用一些API导致主动让出CPU
    比如使用openresty调用第三方模块

不被其他进程争抢资源

  • 提升优先级占用CPU更长的时间
  • 减少操作系统上耗资源的非Nginx进程

设置worker进程的数量

通过合理的设置worker的进程数量,提高cpu利用率,cpu设置等于或者小于核数
查看cpu核数的方法 grep "processor" /proc/cpuinfo |wc -l


Syntax: worker processes number auto;
Default: worker_processes 1;
Context: main

为何一个CPU就可以同时运行多个进程?

  • 宏观上并行,微观上串行
  • 把进程的运行时间分为一段段的时间片
  • OS调度系统依次选择每个进程,最多执行时间片指定的时长

[转帖]nginx优化配置及方法论_Nginx



image.png

  • 阻塞API引发的时间片内主动让出CPU
    -速度不一致引发的阻塞API
    -硬件执行速度不一致,例如CPU和磁盘
  • 业务场景产生的阻塞API
    -例如同步读网络报文

2.2、减少进程间切换

-何为进程间切换
• 是指CPU从一个进程或线程切换到另一个进程或线程
• 类别
• 主动切换
• 被动切换:时间片耗尽
• 减少被动切换
• 增大进程优先级

2.2.1、减入被动进程间切换的配置-设置worker进程优先级
nginx默认是没有开启利用多核cpu的配置的。需要通过增加worker_cpu_affinity配置参数来充分利用多核cpu
当CPU在运行的时候,如果一颗CPU始终固定的去运行同一个进程,当用户连接到进程的时候,用固定的CPU响应用户的请求,CPU中有缓存,就可以重复的使用CPU中缓存的数据。如果进程一开始运行在第一颗CPU上,运行一会跑到第二颗CPU上,就意味着原来的缓存信息在第二颗CPU上无法使用,还需要重新加载,带来资源的浪费,影响效率
绑定Nginx worker进程到指定的CPU内核


Syntax: worker_cpu_affinity cpumask
worker_cpu_affinity auto [cpumask];
Default: -;
Context: main

2.3Nginx 事件处理模型优化

Nginx 的连接处理机制在不同的操作系统中会采用不同的 I/O 模型,在 linux 下,Nginx 使用 epoll 的 I/O 多路复用模型,在 Freebsd 中使用 kqueue 的 I/O 多路复用模型 不过这个选项没必要设置,因为nginx会自动选择最有效的方法作为默认项


Syntax: use method;
Default: —
Context: events

2.4.单个进程允许的客户端最大连接数

通过调整控制连接数的参数来调整 Nginx 单个进程允许的客户端最大连接数,更多的worker的connection数量对会占用更多的内存,一般一个connection约232字节,而且event也约96字节,一个连接就是232+96*2


Syntax: worker_connections number;
Default: 1024
Context: events

2.5 配置Nginx worker进程最大打开文件数


Syntax: worker_rlimit_nofile number;
Default: -
Context: events

上面两个参数都受最大文件句柄数限制,当运行的服务需要大并发进程运行时,如果不够,就会报出“too many open files” file-max是内核可分配的最大文件数可通过 cat /proc/sys/fs/file-max 查看nr_open是单个进程可分配的最大文件数 可通过 cat /proc/sys/fs/nr_open 查看但是也不是不可修改可通过编辑/proc/sys/fs/file-max 修改 echo 30296 > /proc/sys/fs/file-max 单个进程分配文件数如上操作

2.6 修改用户的最大文件句柄数限制

临时修改 ulimit -HSn limit
永久修改 vi /etc/security/limits.conf
-H选项和-S选项分别表示对给定资源的硬限制(hard limit)和软限制(soft limit)进行设置。
硬限制(hard limit)一旦被设置以后就不能被非root用户修改,软限制(soft limit)可以增长达到硬限制(hard limit)。
如果既没有指定-H选项也没有指定-S选项,那么硬限制(hard limit)和软限制(soft limit)都会被设置。

总结:

  • a.所有进程打开的文件描述符数不能超过/proc/sys/fs/file-max
  • b.单个进程打开的文件描述符数不能超过user limit中nofile的soft limit
  • c.nofile的soft limit不能超过其hard limit
  • d. nofile的hard limit不能超过/proc/sys/fs/nr_open

3. 网络相关

什么是SYN攻击?

攻击者短时间伪造不同IP地址的SYN报文,快速占满backlog队列,使服务器不能为正常用户服务,SYN攻击是所有黑客攻击事件中最常见又最容易被利用的一种攻击手法,由来已久,破坏威力巨大。SYN攻击属于DOS攻击的一种, 它利用TCP协议缺陷,通过发送大量的半连接请求,耗费CPU和内存资源

TCP连接握手示意图

 

[转帖]nginx优化配置及方法论_客户端_02

image.png

SYN_SENT 状态

• net.ipv4.tcp_syn_retries = 6
-主动建立连接时,发SYN的重试次数
• net.ipv4.ip_local_port_range = 32768 60999
-建立连接时本地口可用范围

SYN_RCVD 状态

• net.ipv4.tcp_max_syn_backlog
-SYN_RCVD状态连接的最大数
• net.ipv4.tcp_synack_retries
-被动建立连接时,发SYN/ACK的重试次数


 

[转帖]nginx优化配置及方法论_Nginx_03

image.png

如何应对SYN攻击?
  SYN攻击的原理就是向服务器发送SYN数据包,并伪造源IP地址。服务器在收到SYN数据包时,会将连接加入backlog队列,并向源IP发送SYN-ACK数据包,并
等待ACK数据包,以完成三次握手建立连接。 由于源IP地址是伪造的不存在主机IP,所以服务器无法收到ACK数据包,并会不断重发,同时backlog队列被不断被
攻击的SYN连接占满,导致无法处理正常的连接小号cpu资源。
1、减少SYN-ACK数据包的重发次数(默认是5次)
sysctl -w net.ipv4.tcp_synack_retries=3
sysctl -w net.ipv4.tcp_syn_retries=3
2、增大backlog队列(默认是1024)
• net.core.netdev_max_backlog
-接收自网卡、但未被内核协议栈处理的报文队列长度
• net.ipv4.tcp_max_syn_backlog
-SYN_RCVD状态连接的最大个数
sysctl -w net.ipv4.tcp_max_syn_backlog=2048
3、超出处理能力时,对新来的SYN丢弃连接
• net.ipv4.tcp_abort_on_overflow
4、生成验证cookie,重连
• net.ipv4.tcp_syncookies = 1
-当SYN队列满后,新的SYN不进A队列,计算出cookie再以SYN+ACK中的序列号返回客户端,正常客户端发报文时,服
务端根据报文中携带的cookie重新恢复连接
注意:synccookies是妥协版的TCP协议,失去了很多功能,所以先应优化服务端应用程序的负载能力,加大应用程序 backlog值

Tcp Fast Open

开启TFO,加速tcp处理

[转帖]nginx优化配置及方法论_服务器_04

 

image.png


net.ipv4.tcp_fastopen :系统开启TFO功能
• 0 :关闭
• 1 :作为客户端时可以使用TFO
• 2 :作为服务器时可以使用TFO
• 3 :无论作为客户端还是服务器,都可以使用TFO

禁用Nagle算法?

  • Nagle算法
    -避免一个连接上同时存在大量小报文 . 最多只存在要给小报文 . 合并多个小报文一起发送
    -提高带宽利用率
    吞吐量优先:启用Nagle算法,tcp_nodelay off
    低时延优先:禁用Nagle算法,tcp_nodelay on

示例:禁用跟启用Nagle算法示意

[转帖]nginx优化配置及方法论_Nginx_05

 

image.png

[转帖]nginx优化配置及方法论_Nginx_06

 

image.png


Syntax: tcp_nodelay on | off;
Default: tcp_nodelay on;
Context: http, server, location

Gzip指令

nginx中gzip的主要作用就是用来减轻服务器的带宽问题,经过gzip压缩后的页面大小可以变为原来的30%甚至更小,这样用户浏览页面时的速度会快很多。gzip的压缩页面需要浏览器和服务器双方都支持,实际上就是服务器端压缩,传到浏览器后浏览器解压缩并解析。目前的大多数浏览器都支持解析gzip压缩过的页面。

参数说明:

语法:gzip on | off;
默认值:gzip off;
作用域:http, server, location, if in location
语法:gzip_min_length length;
默认值:gzip_min_length 20;
作用域:http, server, location
说明:
设置允许压缩的页面最小字节数,页面字节数从header头中的Content-Length中进行获取。因为过小的文件内容压缩之后效果不明显,甚至会比不压缩时
更大,所以一般建议长度不小于1000或1k。
响应头响应浏览器使用gzip解压


 

image.png

  • gzip_buffers
    语法: gzip_buffers number size;
    默认值: gzip_buffers 32 4k|16 8k;
    作用域: http, server, location
    说明:
    设置response响应的缓冲区大小。32 4k代表以4k为单位将响应数据以4k的32倍(128k)的大小申请内存。如果没有设置,缓冲区的大小默认为整个响应页
    面的大小。
  • gzip_comp_level
    语法:gzip_comp_level level;
    默认值:gzip_comp_level 1;
    作用域:http, server, location
    说明:
    设置gzip的压缩级别,可接受的范围是从1到9,数字越大压缩率越高,但更消耗CPU,一般设置6即可。
  • gzip_types
    语法:gzip_types mime-type ...;
    默认值:gzip_types text/html;
    作用域:http, server, location
    说明:
    指定哪些类型的相应才启用gzip压缩,多个用空格分隔。通配符”*”可以匹配任意类型。
    不管是否指定”text/html”类型,该类型的响应总是启用压缩。
    一般js、css等文本文件都启用压缩,如application/x-javascript text/css application/xml 等。
    具体的文件类型对应的mimi-type可以参考conf/mime.types文件。
  • gzip_http_version
    语法:gzip_http_version 1.0 | 1.1;
    默认值:gzip_http_version 1.1;
    作用域:http, server, location
    说明:
    设置gzip压缩所需要的请求的最小HTTP版本,低于该版本不使用gzip压缩。一般不用修改,默认即可。
  • gzip_disable
    gzip_disable “MSIE [1-6].”
    语法:gzip_disable regex ...;
    默认值:—
    作用域:http, server, location
    说明:
    这个指令是在0.6.23版本增加的。
    如果请求的”User-Agent”头信息能被指定的正则表达式匹配,则对响应禁用gzip压缩功能。主要是为了兼容不支持gzip压缩的浏览器,比如IE6,不过IE6早就废弃了

浏览器和服务器进行gzip压缩的请求和处理返回过程

 

[转帖]nginx优化配置及方法论_Nginx_07

image.png


整个请求过程来看,开启 gzip 和不开启 gzip 功能,其 http 的请求和返回过程是一致的,不同的是参数。

当开启HTTP的 gzip 功能时,客户端发出 http 请求时,会通过 headers 中的 Accept-Encoding 属性告诉服务器“我支持 gzip 解压,解压格式(算法)

deflate , sdch 为:”。```Accept-Encoding:gzip,deflate,sdch`

 

注意,不是request说自己支持解压,Nginx返回response数据的时候就一定会压缩。这还要看本次Nginx返回数据的格式是什么,如果返回数据的原始数据格式,和设置的gzip_types相符合,这时Nginx才会进行压缩。Nginx 返回 response headers 是,如果数据被压缩了,就会在 Content-Encoding属性中标示 gzip ,表示接下来返回的 responsecontent 是经过压缩的;并且在 Content-Type 属性中表示数据的原始格式。 最后返回经过压缩的 response content 给客户端,客户端再进行解压。这里注意一下,在客户端发送的 headers 里面,有一个 deflate,sdch 。这是两种压缩算法

  • 减少磁盘IO
  • 优化读取
  • Sendfile 零拷贝
  • 内存盘、SSD盘
  • 减少写入
  • AIO
  • 增大 error_log级别
  • 关闭 access_log
  • 压缩 access_log
  • 是否启用proxy buffering?
  • syslog 替代本地IO
  • 线程池thread pool

直接IO绕开磁盘高速缓存

先看下概念

[转帖]nginx优化配置及方法论_Nginx_08

 

image.png

适用于大文件:直接IO

当磁盘上的文件大小超过size后,启用directIO功能,避免Buffered IO模式下磁盘页缓存中的拷贝消耗


Syntax: directio size | off;
Default: directio off;
Context: http, server, location
Syntax: directioaligiunent 512;
Default: directioalignment size;
Context: http, server, location

 

[转帖]nginx优化配置及方法论_服务器_09

image.png


Syntax: aio on | off | threads[=pool];
Default: aio off;
Context: http, server, location
  • 异步读IO线程池编译时需要加上 --with-threads

[转帖]nginx优化配置及方法论_服务器_10

image.png

  • 定义线程池
    根据前面的了解,如果我们的服务器是个静态资源服务器,就适合使用异步IO线程池 Syntax: thread_pool name threads=number [max_queue=number];
    Default:thread_pool default threads=32 max_queue=65536; Context:main
  • sendfile零拷贝提升性能减少内存拷贝次数

[转帖]nginx优化配置及方法论_Nginx_11

image.png