在nginx中connection就是对tcp连接的封装,其中包括连接的socket,读事件,写事件。利用nginx封装的connection,我们可以很方便的使用nginx来处理与连接相关的事情,比如,建立连接,发送与接受数据等。而nginx中的http请求的处理就是建立在connection之上的,所以nginx不仅可以作为一个web服务器,也可以作为邮件服务器。
结合TCP连接的生命周期来看,nginx在启动时,会解析配置文件,得到需要监听的端口与ip地址,然后在nginx的master进程里面,先初始化好这个监控的socket(创建socket,设置addrreuse等选项,绑定到指定的ip地址端口,再listen),然后再fork出多个子进程出来,然后子进程会竞争accept新的连接。此时,客户端就可以向nginx发起连接了。当客户端与服务端通过三次握手建立好一个连接后,nginx的某一个子进程会accept成功,得到这个建立好的连接的socket,然后创建nginx对连接的封装,即ngx_connection_t结构体。接着,设置读写事件处理函数并添加读写事件来与客户端进行数据的交换。最后,nginx或客户端来主动关掉连接,到此,一个连接就寿终正寝了。
ngx_connection_t结构体
//服务器的被动连接
struct ngx_connection_s {
//连接未使用时候,data域充当连接链表中的next指针.
//当连接被使用时候,data域的意义由模块而定.
void *data;
//连接对应的读事件
ngx_event_t *read;
//连接对应的写事件
ngx_event_t *write;
//套接字句柄
ngx_socket_t fd;
//直接接收网络字节流的方法
ngx_recv_pt recv;
//直接放松网络字节流的方法
ngx_send_pt send;
//以ngx_chain链表为参数,接收网络字节流的方法
ngx_recv_chain_pt recv_chain;
//以ngx_chain链表为参数,发送网络字节流的方法
ngx_send_chain_pt send_chain;
//这个链接对应的listening_t监听对象.
//此链接由ngx_listening_t监听的事件建立
ngx_listening_t *listening;
//这个连接已经发送出去的字节数
off_t sent;
//记录日志
ngx_log_t *log;
//在accept一个新连接的时候,会创建一个内存池,而这个连接结束时候,会销毁一个内存池.
//这里所说的连接是成功建立的tcp连接.内存池的大小由pool_size决定
//所有的ngx_connect_t结构体都是预分配的
ngx_pool_t *pool;
//连接客户端的结构体
struct sockaddr *sockaddr;
//连接客户端的结构体长度
socklen_t socklen;
//连接客户端的ip(字符串形式)
ngx_str_t addr_text;
#if (NGX_SSL)
ngx_ssl_connection_t *ssl;
#endif
//本机中监听端口对应的socketaddr结构体
//也就是listen监听对象中的socketaddr成员
struct sockaddr *local_sockaddr;
//用于接收和缓存客户端发来的字符流
ngx_buf_t *buffer;
//该字段表示将该连接以双向链表形式添加到cycle结构体中的
//reusable_connections_queen双向链表中,表示可以重用的连接.
ngx_queue_t queue;
//连接使用次数,每次建立一条来自客户端的连接,
//或者建立一条与后端服务器的连接,number+1
ngx_atomic_uint_t number;
//处理请求的次数
ngx_uint_t requests;
//
unsigned buffered:8;
//日志级别
unsigned log_error:3; /* ngx_connection_log_error_e */
//不期待字符流结束
unsigned unexpected_eof:1;
//连接超时
unsigned timedout:1;
//连接处理过程中出现错误
unsigned error:1;
//标识此链接已经销毁,内存池,套接字等都不可用
unsigned destroyed:1;
//连接处于空闲状态
unsigned idle:1;
//连接可以重用
unsigned reusable:1;
//连接关闭
unsigned close:1;
//正在将文件中的数据法网另一端
unsigned sendfile:1;
//连接中发送缓冲区的数据高于低潮,才发送数据.
//与ngx_handle_write_event方法中的lowat相对应
unsigned sndlowat:1;
//使用tcp的nodely特性
unsigned tcp_nodelay:2; /* ngx_connection_tcp_nodelay_e */
//使用tcp的nopush特性
unsigned tcp_nopush:2; /* ngx_connection_tcp_nopush_e */
#if (NGX_HAVE_IOCP)
unsigned accept_context_updated:1;
#endif
#if (NGX_HAVE_AIO_SENDFILE)
unsigned aio_sendfile:1;
ngx_buf_t *busy_sendfile;
#endif
#if (NGX_THREADS)
ngx_atomic_t lock;
#endif
};
最大连接数,对于HTTP请求本地资源来说,能够支持的最大并发数量是worker_connections * worker_processes,而如果是HTTP作为反向代理来说,最大并发数量应该是worker_connections * worker_processes/2。
accept机会公平性
首先,nginx的处理得先打开accept_mutex选项,此时,只有获得了accept_mutex的进程才会去添加accept事件,也就是说,nginx会控制进程是否添加accept事件。nginx使用一个叫ngx_accept_disabled的变量来控制是否去竞争accept_mutex锁。
ngx_accept_disabled = ngx_cycle->connection_n / 8
- ngx_cycle->free_connection_n;
if (ngx_accept_disabled > 0) {
ngx_accept_disabled--;
} else {
if (ngx_trylock_accept_mutex(cycle) == NGX_ERROR) {
return;
}
if (ngx_accept_mutex_held) {
flags |= NGX_POST_EVENTS;
} else {
if (timer == NGX_TIMER_INFINITE
|| timer > ngx_accept_mutex_delay)
{
timer = ngx_accept_mutex_delay;
}
}
}
在第一段代码中,计算ngx_accept_disabled的值,这个值是nginx单进程的所有连接总数的八分之一,减去剩下的空闲连接数量,得到的这个ngx_accept_disabled有一个规律,当剩余连接数小于总连接数的八分之一时,其值才大于0,而且剩余的连接数越小,这个值越大。再看第二段代码,当ngx_accept_disabled大于0时,不会去尝试获取accept_mutex锁,并且将ngx_accept_disabled减1,于是,每次执行到此处时,都会去减1,直到小于0。不去获取accept_mutex锁,就是等于让出获取连接的机会,很显然可以看出,当空余连接越少时,ngx_accept_disable越大,于是让出的机会就越多,这样其它进程获取锁的机会也就越大。不去accept,自己的连接就控制下来了,其它进程的连接池就会得到利用,这样,nginx就控制了多进程间连接的平衡了。