Nginx优化方案
- A.准备工具
- B.下载Nginx源码包
- C.优化
- 一.编译安装过程的优化
- 二.Linux内核参数针对Nginx的优化
- 三.配置文件优化
- 基本优化
- FastCGI
- 参考配置文件
- 四.ulimit关于系统连接数的优化
- 五.总结
A.准备工具
关于Nginx的相关历史资料在这我就不多bb了,直接开门见山.
需要已经安装好的Linux环境,在这我选择的是Vagrant+Oracle VM VirtualBox+CentOs8.还没有实验环境的自行安装.
B.下载Nginx源码包
在这里我选择的是nginx-1.18.0版本
1.直接下载.tar.gz安装包.
链接: https://nginx.org/en/download.html
2.也可以用wget下载(自行解压)
[root@10 ~]# wget -c https://nginx.org/download/nginx-1.18.0.tar.gz
C.优化
在这优化一共分成三部分的优化:
1.编译安装过程的优化
2.Linux内核参数针对Nginx的优化
3.Nginx配置文件的优化
一.编译安装过程的优化
1.Nginx安装后的大小优化
在编译Nginx时,默认以debug模式进行,而在debug模式下会插入很多跟踪和ASSERT之类的信息,而正式服务器不需要这些信息.所以编译时取消debug模式.在Nginx源码文件被解压后,找到源码目录下的auto/cc/gcc文件,在其中找到如下几行:
将
# debug
CFLAGS=”$CFLAGS -g”
改成
# debug
# CFLAGS=”$CFLAGS -g”
注释掉或删除
2.为特定的CPU指定CPU类型编译优化
(看服务器的cpu需要,如果没有就略过,编译参数我会开一章节单独写)
在编译Nginx时,默认的GCC编译参数是“-O”,使得cpu更好兼容Nginx,要优化GCC编译,可以使用以下两个参数:
#with-cpu-opt特定的 CPU 编译,有效的值包括:pentium, pentiumpro, pentium3, pentium4, athlon, opteron, amd64, sparc32, sparc64, ppc64
--with-cc-opt='-O3'
--with-cpu-opt=“你的cpu类型”
要确定CPU类型,可以通过如下命令:
[root@10 ~]#cat /proc/cpuinfo | grep "model name"
3.利用TCMalloc优化Nginx的性能
这项最重要,使得Nginx大大提升性能
(不想看可以略过此段)TCMalloc的全称为Thread-Caching Malloc,是谷歌开发的开源工具“google-perftools”中的一个成员。与标准的glibc库的malloc相比,TCMalloc库在内存分配效率和速度上要高很多,这在很大程度上提高了服务器在高并发情况下的性能,从而降低系统负载。下面简单介绍如何为Nginx添加TCMalloc库支持。 要安装TCMalloc库,需要安装libunwind(32位操作系统不需要安装)和google-perftools两个软件包,libunwind库为基于64位CPU和操作系统的程序提供了基本函数调用链和函数调用寄存器功能。下面介绍利用TCMalloc优化Nginx的具体操作过程
a.安装libunwind库
链接: http://download.savannah.gnu.org/releases/libunwind 在这我选择的是http://mirror.yongbok.net/nongnu/libunwind/libunwind-1.5.0.tar.gz
安装过程如下
[root@10 ~]#tar zxvf libunwind-1.5.0.tar.gz
[root@10 ~]# cd libunwind-0.99-alpha/
[root@10 libunwind-1.5.0]#CFLAGS=-fPIC ./configure
[root@10 libunwind-1.5.0]#make CFLAGS=-fPIC
[root@10 libunwind-1.5.0]#make CFLAGS=-fPIC install
b.安装gperftools
(多嘴说一下:我猜测早期时叫google-perftools,后来就叫gperftools)
以前可以在google下载google-perftools的,后来你懂的~不过别担心,我们可以去源码天堂(我认为的,我无知,呵呵)找:
链接: https://github.com/gperftools/gperftools/releases 在这我下载的是https://github.com/gperftools/gperftools/releases/download/gperftools-2.8.1/gperftools-2.8.1.tar.gz
[root@10 ~]#tar zxvf gperftools-2.8.1.tar.gz
[root@10 ~]# cd gperftools-2.8.1/
[root@10 gperftools-2.8.1]# ./configure
[root@10 gperftools-2.8.1]# echo "/usr/local/lib" > /etc/ld.so.conf.d/usr_local_lib.conf
[root@10 gperftools-2.8.1]# ldconfig
ldconfig就是让Linux安装的库马上能用起来
c.Nginx支持google-perftools
需要在安装过程中添加“–with-google_perftools_module”选项重新编译Nginx,安装代码如下:(–user和–group那些我就省略了,自行查资料)
[root@10 nginx-1.18.0]# ./configure --prefix=/usr/local/nginx --with-http_stub_status_module --with-http_ssl_module --with-http_gzip_static_module --with-ipv6 --with-google_perftools_module
[root@10 nginx-1.18.0]# make && make install
d.为gperftools添加线程目录
创建一个线程目录,这里将文件放在/tmp/tcmalloc下,操作如下
[root@10 nginx-1.18.0]# mkdir /tmp/tcmalloc
[root@10 nginx-1.18.0]# chmod 0777 /tmp/tcmalloc
e.修改Nginx主配置文件
修改nginx.conf文件,在pid这行的下面添加如下代码:
#pid logs/nginx.pid;
google_perftools_profiles /tmp/tcmalloc;
重启Nginx,完成gperftools的加载。
f.验证运行状态
为了验证google-perftools已经正常加载,通过如下命令查看:
[root@10 nginx-1.18.0]# lsof -n | grep tcmalloc
显示效果
nginx.conf文件里的worker_processes:
由于在Nginx配置文件中,设置worker_processes的值为1,因此开启了1个Nginx线程,每个线程会有一行记录。每个线程文件后面的数字值就是启动的Nginx的PID值。 至此,利用TCMalloc优化Nginx的操作完成。
二.Linux内核参数针对Nginx的优化
内核参数的优化,主要是在Linux系统中针对Nginx应用而进行的系统内核参数优化,常见的优化参数值如下:
#nginx sysctl
net.ipv4.ip_forward = 0
net.ipv4.conf.default.rp_filter = 1
net.ipv4.conf.default.accept_source_route = 0
kernel.sysrq = 0
kernel.core_uses_pid = 1
net.ipv4.tcp_syncookies = 1
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.shmmax = 68719476736
kernel.shmall = 4294967296
net.ipv4.tcp_max_tw_buckets = 6000
net.ipv4.tcp_sack = 1
net.ipv4.tcp_window_scaling = 1
net.ipv4.tcp_rmem = 4096 87380 4194304
net.ipv4.tcp_wmem = 4096 16384 4194304
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.core.netdev_max_backlog = 262144
net.core.somaxconn = 262144
net.ipv4.tcp_max_orphans = 3276800
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_synack_retries = 1
net.ipv4.tcp_syn_retries = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_mem = 94500000 915000000 927000000
net.ipv4.tcp_fin_timeout = 1
net.ipv4.tcp_keepalive_time = 30
net.ipv4.ip_local_port_range = 1024 65000
将上面的内核参数值加入/etc/sysctl.conf文件中,然后执行如下命令使之生效:
[root@10 nginx-1.18.0]# sysctl -p
然后发现
centos8内核没有这个系统参数,需要从配置中去掉tcp_tw_recycle和tcp_tw_reuse参数.
tcp_tw_recycle通常会和tcp_tw_reuse参数一起使用,用于解决服务器TIME_WAIT状态连接过多的问题。(关于这个我会单独出一章讲述)
三.配置文件优化
基本优化
nginx 配置文件中对优化比较有作用的几项:
1.worker_processes 8;
nginx 进程数,建议按照cpu 数目来指定,一般为它的倍数 (如,2个四核的cpu计为8,也可以2个四核的cpu计为2。
2.worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000;
为每个进程分配cpu,上例中将8 个进程分配到8 个cpu,当然可以写多个,或者将一 个进程分配到多个cpu。
注:避免每个进程的cpu时间片来回切换所带来的性能消耗
3.worker_rlimit_nofile 65535;
这个指令是指当一个nginx 进程打开的最多文件描述符数目,理论值应该是最多打开文 件数(ulimit -n)与nginx 进程数相除,但是nginx 分配请求并不是那么均匀,所以最好与ulimit -n 的值保持一致。
如linux 2.6内核下开启文件打开数为65535,worker_rlimit_nofile就相应应该填写65535。
这是因为nginx调度时分配请求到进程并不是那么的均衡,所以假如填写10240,总并发量达到3-4万时就有进程可能超过10240了,这时会返回502错误。
查看linux系统文件描述符的方法:
[root@10 ~]# sysctl -a | grep fs.file
4.use epoll;
使用epoll 的I/O 模型
(补充说明:
与apache相类,nginx针对不同的操作系统,有不同的事件模型
标准事件模型 Select、poll属于标准事件模型,如果当前系统不存在更有效的方法,nginx会选择select或poll B)高效事件模型 Kqueue:使用于 FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X. 使用双处理器的MacOS X系统使用kqueue可能会造成内核崩溃。 Epoll: 使用于Linux内核2.6版本及以后的系统。
/dev/poll:使用于 Solaris 7 11/99+, HP/UX 11.22+ (eventport), IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。
Eventport:使用于 Solaris 10. 为了防止出现内核崩溃的问题, 有必要安装安全补丁。)
5.worker_connections 65535;
每个进程允许的最多连接数, 理论上每台nginx 服务器的最大连接数为worker_processes*worker_connections。
6.keepalive_timeout 60;
keepalive 超时时间。
7.client_header_buffer_size 4k;
客户端请求头部的缓冲区大小,这个可以根据你的系统分页大小来设置,一般一个请求头的大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。
分页大小可以用命令getconf PAGESIZE 取得。
[root@10 ~]# getconf PAGESIZE
4096
但也有client_header_buffer_size超过4k的情况,但是client_header_buffer_size该值必须设置为“系统分页大小”的整倍数。
8.open_file_cache max=65535 inactive=60s;
这个将为打开文件指定缓存,默认是没有启用的,max 指定缓存数量,建议和打开文件数一致,inactive 是指经过多长时间文件没被请求后删除缓存。
9.open_file_cache_valid 80s;
这个是指多长时间检查一次缓存的有效信息。
10.open_file_cache_min_uses 1;
open_file_cache 指令中的inactive 参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在inactive 时间内一次没被使用,它将被移除。
FastCGI
fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2 keys_zone=TEST:10minactive=5m;
这个指令为FastCGI 缓存指定一个路径,目录结构等级,关键字区域存储时间和非活动删除时间。
fastcgi_connect_timeout 300;
指定连接到后端FastCGI 的超时时间。
fastcgi_send_timeout 300;
向FastCGI 传送请求的超时时间,这个值是指已经完成两次握手后向FastCGI 传送请求的超时时间。
fastcgi_read_timeout 300;
接收FastCGI 应答的超时时间,这个值是指已经完成两次握手后接收FastCGI 应答的超时时间。
fastcgi_buffer_size 4k;
指定读取FastCGI 应答第一部分需要用多大的缓冲区,一般第一部分应答不会超过1k,由于页面大小为4k,所以这里设置为4k。
fastcgi_buffers 8 4k;
指定本地需要用多少和多大的缓冲区来缓冲FastCGI 的应答。
fastcgi_busy_buffers_size 8k;
这个指令我也不知道是做什么用,只知道默认值是fastcgi_buffers 的两倍。
fastcgi_temp_file_write_size 8k;
在写入fastcgi_temp_path 时将用多大的数据块,默认值是fastcgi_buffers 的两倍。
fastcgi_cache TEST
开启FastCGI 缓存并且为其制定一个名称。个人感觉开启缓存非常有用,可以有效降低CPU 负载,并且防止502 错误。
fastcgi_cache_valid 200 302 1h; fastcgi_cache_valid 301 1d; fastcgi_cache_valid any 1m;
为指定的应答代码指定缓存时间,如上例中将200,302 应答缓存一小时,301 应答缓存1 天,其他为1 分钟。
fastcgi_cache_min_uses 1;
缓存在fastcgi_cache_path 指令inactive 参数值时间内的最少使用次数,如上例,如果在5 分钟内某文件1 次也没有被使用,那么这个文件将被移除。
fastcgi_cache_use_stale error timeout invalid_header http_500;
不知道这个参数的作用,猜想应该是让nginx 知道哪些类型的缓存是没用的。以上为nginx 中FastCGI 相关参数,另外,FastCGI 自身也有一些配置需要进行优化,如果你使用php-fpm 来管理FastCGI,可以修改配置文件中的以下值:
再来优化PHP-FPM,打开/usr/local/php/etc/php-fpm.conf,这个文件和PHP的语法
很相似,凡是需要激活的配置,直接删掉前面的分号(;)即可:
[global]
pid = run/php-fpm.pid
process_control_timeout=5
[www]
listen.allowed_clients = 127.0.0.1
user=www-data
group=www-data
pm=dynamic
pm.max_children=20(这个配置决定了php-fpm的总进程数,内存小的少设点)
pm.max_requests=10000(并发数越大,此请求数应越大)
pm.start_servers =10(初始php-fpm进程数)
emergency_restart_threshold = 60
emergency_restart_interval = 60s
上边这两个,表示在emergency_restart_interval所设值内出现SIGSEGV或者SIGBUS错误的php-cgi进程数如果超过 emergency_restart_threshold个,php-fpm就会优雅重启。这两个选项一般保持默认值
参考配置文件
nginx 配置文件:
user www www;
worker_processes 8;
worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000
01000000;
error_log /www/log/nginx_error.log crit;
pid /usr/local/nginx/nginx.pid;
worker_rlimit_nofile 204800;
events
{
use epoll;
worker_connections 204800;
}
http
{
include mime.types;
default_type application/octet-stream;
charset utf-8;
server_names_hash_bucket_size 128;
client_header_buffer_size 2k;
large_client_header_buffers 4 4k;
client_max_body_size 8m;
sendfile on;
tcp_nopush on;
keepalive_timeout 60;
fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2
keys_zone=TEST:10m
inactive=5m;
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 4k;
fastcgi_buffers 8 4k;
fastcgi_busy_buffers_size 8k;
fastcgi_temp_file_write_size 8k;
fastcgi_cache TEST;
fastcgi_cache_valid 200 302 1h;
fastcgi_cache_valid 301 1d;
fastcgi_cache_valid any 1m;
fastcgi_cache_min_uses 1;
fastcgi_cache_use_stale error timeout invalid_header http_500;
open_file_cache max=204800 inactive=20s;
open_file_cache_min_uses 1;
open_file_cache_valid 30s;
tcp_nodelay on;
gzip on;
gzip_min_length 1k;
gzip_buffers 4 16k;
gzip_http_version 1.0;
gzip_comp_level 2;
gzip_types text/plain application/x-javascript text/css application/xml;
gzip_vary on;
server
{
listen 8080;
server_name backup.aiju.com;
index index.php index.htm;
root /www/html/;
location /status
{
stub_status on;
}
location ~ .*\.(php|php5)?$
{
fastcgi_pass 127.0.0.1:9000;
fastcgi_index index.php;
include fcgi.conf;
}
location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|js|css)$
{
expires 30d;
}
log_format access ‘$remote_addr — $remote_user [$time_local] “$request” ‘
‘$status $body_bytes_sent “$http_referer” ‘
‘”$http_user_agent” $http_x_forwarded_for’;
access_log /www/log/access.log access;
}
}
四.ulimit关于系统连接数的优化
linux 默认值 open files 和 max user processes 为 1024
[root@10 ~]#ulimit -n
1024
[root@10 ~]#ulimit –u
1024
问题描述: 说明 server 只允许同时打开 1024 个文件,处理 1024 个用户进程
使用ulimit -a 可以查看当前系统的所有限制值,使用ulimit -n 可以查看当前的最大打开文件数。
新装的linux 默认只有1024 ,当作负载较大的服务器时,很容易遇到error: too many open files 。因此,需要将其改大。
解决方法:
使用 ulimit –n 65535 可即时修改,但重启后就无效了。(注ulimit -SHn 65535 等效 ulimit -n 65535 ,-S 指soft ,-H 指hard)
修改方式
有如下三种修改方式:
1.在/etc/rc.local 中增加一行 ulimit -SHn 65535
2.在/etc/profile 中增加一行 ulimit -SHn 65535
3.在/etc/security/limits.conf 最后增加:
* soft nofile 65535
* hard nofile 65535
* soft nproc 65535
* hard nproc 65535
具体使用哪种,在 CentOS 中使用第1 种方式无效果,使用第3 种方式有效果,而在Debian 中使用第2 种有效果
[root@10 ~]#ulimit -n
65535
[root@10 ~]#ulimit –u
65535
备注:ulimit 命令本身就有分软硬设置,加-H 就是硬,加-S 就是软默认显示的是软限制
soft 限制指的是当前系统生效的设置值。 hard 限制值可以被普通用户降低。但是不能增加。 soft 限制不能设置的比 hard 限制更高。 只有 root 用户才能够增加 hard 限制值。
五.总结
以上优化仅仅对于nginx和linux调优的优化手段,并不是对所以应用有效,以上有些配置时根据官方给出来的配置标准,有可能根据自己服务器性能进行调整。最后如有发现新的调整方案后期补上.