原本计划这一篇的内容是配置文件的解析,不过为了连贯性,还是继续nginx初始化的过程。nginx的进程模型与大多数http服务器采用的模型是一样的,都是Master-Worker模型。Master进程负责处理外部信号,同时管理所有的Worker进程。而Worker进程就是用来处理连接的建立、请求和响应,大部分的事件处理都是在worker进程中。
1. 基本的数据结构
1. ngx_process_t
进程数据结构,用来表示的worker进程。nginx中把所有创建的进程放到ngx_processes数组(os/unix/ngx_process.c)中,其中进程pid不为-1的元素都是存活的进程。ngx_processes数组的大小由NGX_MAX_PROCESSES宏定义,大小是1024,也就是说nginx最多允许1024个进程,这个数字挺大的,一般是用不到这么多的。每个worker进程内部都有ngx_processes数组,用来保存所有worker进程,通过进程的channel就可以实现worker进程的通信。但是之前创建的worker进程是不会保存之后创建的进程的信息,这里需要一种机制来向之前创建的worker进程传递所有后来创建的进程的信息,这部分内容后面会介绍。
typedef struct {
/**
* 进程id
*/
ngx_pid_t pid;
/**
* 进程退出的状态
*/
int status;
/**
* 进程的channel,通过socketpair创建的
*/
ngx_socket_t channel[2];
/**
* 进程的初始化函数,在每次创建完worker进程时调用
*/
ngx_spawn_proc_pt proc;
/**
* 向进程初始化函数传递的参数
*/
void *data;
char *name;
/**
* 进程的状态
*/
unsigned respawn:1;
unsigned just_spawn:1;
unsigned detached:1;
unsigned exiting:1;
unsigned exited:1;
} ngx_process_t;
2. ngx_channel_t
实际上就是nginx进程通信传递的消息。
typedef struct {
/**
* 向worker进程发送的命令
*/
ngx_uint_t command;
/**
* 对应进程的id
*/
ngx_pid_t pid;
/**
* 对应的进程在ngx_processes数组中的下标
*/
ngx_int_t slot;
/**
* 文件描述符
*/
ngx_fd_t fd;
} ngx_channel_t;
2. 进程模型的初始化
在nginx启动过程的最后部分工作是进程模型的初始化。
if (ngx_process == NGX_PROCESS_SINGLE) {
ngx_single_process_cycle(cycle);
} else {
ngx_master_process_cycle(cycle);
}
因为大部分nginx的应用都是多进程模式的,所以我们只研究nginx的多进程模型,这里调用ngx_master_process_cycle函数(os/unix/ngx_process_cycle.c)初始化master进程的主循环,并创建worker进程,下面先来看一下这个函数。
sigemptyset(&set);
sigaddset(&set, SIGCHLD);
sigaddset(&set, SIGALRM);
sigaddset(&set, SIGIO);
sigaddset(&set, SIGINT);
sigaddset(&set, ngx_signal_value(NGX_RECONFIGURE_SIGNAL));
sigaddset(&set, ngx_signal_value(NGX_REOPEN_SIGNAL));
sigaddset(&set, ngx_signal_value(NGX_NOACCEPT_SIGNAL));
sigaddset(&set, ngx_signal_value(NGX_TERMINATE_SIGNAL));
sigaddset(&set, ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
sigaddset(&set, ngx_signal_value(NGX_CHANGEBIN_SIGNAL));
if (sigprocmask(SIG_BLOCK, &set, NULL) == -1) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
"sigprocmask() failed");
}
sigemptyset(&set);
一开始初始化信号部分,信号处理函数的注册已经在main函数中调用ngx_init_signals完成。这部分代码的作用是不是阻塞这些信号的接收,防止进程初始化过程被打断?
size = sizeof(master_process);
for (i = 0; i < ngx_argc; i++) {
size += ngx_strlen(ngx_argv[i]) + 1;
}
title = ngx_pnalloc(cycle->pool, size);
p = ngx_cpymem(title, master_process, sizeof(master_process) - 1);
for (i = 0; i < ngx_argc; i++) {
*p++ = ' ';
p = ngx_cpystrn(p, (u_char *) ngx_argv[i], size);
}
// 设置进程显示的名称,包括命令行参数
ngx_setproctitle(title);
这部分代码完成进程title的设置,这个title就是通过ps显示的进程名,同时会包含启动时的命令行参数。
ngx_start_worker_processes(cycle, ccf->worker_processes,
NGX_PROCESS_RESPAWN);
接下来,调用调用ngx_start_worker_processes函数初始化并启动worker进程的主循环。继续看一下这个函数。
static void
ngx_start_worker_processes(ngx_cycle_t *cycle, ngx_int_t n, ngx_int_t type)
{
ngx_int_t i;
ngx_channel_t ch;
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "start worker processes");
// 传递给其他worker进程的命令
ch.command = NGX_CMD_OPEN_CHANNEL;
for (i = 0; i < n; i++) {
cpu_affinity = ngx_get_cpu_affinity(i);
/**
* 创建worker进程,ngx_worker_process_cycle是函数指针
* 在创建worker进程后调用,用来初始化worker进程的主循环
*/
ngx_spawn_process(cycle, ngx_worker_process_cycle, NULL,
"worker process", type);
/**
* 初始化channel
*/
ch.pid = ngx_processes[ngx_process_slot].pid;
ch.slot = ngx_process_slot;
ch.fd = ngx_processes[ngx_process_slot].channel[0];
/**
* 向之前创建worker进程传递这个channel,worker进程在接收到之后会更新自己的ngx_processes
* 全局进程表。
*/
ngx_pass_open_channel(cycle, &ch);
}
}
这个函数调用ngx_spawn_process创建worker_processes(在配置文件中通过worker_processes指定的值)个worker进程,然后调用ngx_pass_open_channel将新创建的进程的channel传递给之前创建的worker进程。ngx_spawn_process函数完成 worker进程fork的工作,并在创建完worker进程后调用ngx_worker_process_cycle回调函数初始化worker进程的主循环,下面看看具体过程。
if (respawn >= 0) {
s = respawn;
} else {
/**
* 在全局进程表ngx_processes中查找第一个空的结构,用来存放新创建的进程的信息。
*/
for (s = 0; s < ngx_last_process; s++) {
if (ngx_processes[s].pid == -1) {
break;
}
}
if (s == NGX_MAX_PROCESSES) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, 0,
"no more than %d processes can be spawned",
NGX_MAX_PROCESSES);
return NGX_INVALID_PID;
}
}
在全局进程表中查找一个ngx_process_t结构用来存储新建的进程的信息。
if (respawn != NGX_PROCESS_DETACHED) {
/* Solaris 9 still has no AF_LOCAL */
/**
* 调用socketpair创建一对相互连接的unix域socket,用于进程间的全双工通信
*/
if (socketpair(AF_UNIX, SOCK_STREAM, 0, ngx_processes[s].channel) == -1)
{
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
"socketpair() failed while spawning \"%s\"", name);
return NGX_INVALID_PID;
}
ngx_log_debug2(NGX_LOG_DEBUG_CORE, cycle->log, 0,
"channel %d:%d",
ngx_processes[s].channel[0],
ngx_processes[s].channel[1]);
/**
* 将用于进程通信的socket设置成非阻塞的
*/
if (ngx_nonblocking(ngx_processes[s].channel[0]) == -1) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
ngx_nonblocking_n " failed while spawning \"%s\"",
name);
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
/**
* 将用于进程通信的socket设置成非阻塞的
*/
if (ngx_nonblocking(ngx_processes[s].channel[1]) == -1) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
ngx_nonblocking_n " failed while spawning \"%s\"",
name);
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
on = 1;
/**
* 设置成信号驱动异步io,有io时内核发送SIGIO信号
*/
if (ioctl(ngx_processes[s].channel[0], FIOASYNC, &on) == -1) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
"ioctl(FIOASYNC) failed while spawning \"%s\"", name);
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
/**
* 设置将接收SIGIO和SIGURG信号的进程id
*/
if (fcntl(ngx_processes[s].channel[0], F_SETOWN, ngx_pid) == -1) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
"fcntl(F_SETOWN) failed while spawning \"%s\"", name);
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
/**
* 当执行exec时关闭描述符
*/
if (fcntl(ngx_processes[s].channel[0], F_SETFD, FD_CLOEXEC) == -1) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
"fcntl(FD_CLOEXEC) failed while spawning \"%s\"",
name);
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
if (fcntl(ngx_processes[s].channel[1], F_SETFD, FD_CLOEXEC) == -1) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
"fcntl(FD_CLOEXEC) failed while spawning \"%s\"",
name);
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
}
// 当前的子进程的描述符
ngx_channel = ngx_processes[s].channel[1];
} else {
ngx_processes[s].channel[0] = -1;
ngx_processes[s].channel[1] = -1;
}
/**
* ngx_process_slot是新创建的进程在ngx_processes数组中的下标
*/
ngx_process_slot = s;
nginx进程间通信时通过socketpair,也就是一对连接的unix domain socket,这段代码就是创建这个socketpair,并对其初始化,包括设置成非阻塞的、异步io等。
pid = fork();
switch (pid) {
case -1:
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
"fork() failed while spawning \"%s\"", name);
ngx_close_channel(ngx_processes[s].channel, cycle->log);
return NGX_INVALID_PID;
case 0:
ngx_pid = ngx_getpid();
proc(cycle, data);
break;
default:
break;
}
接下来就是创建进程的关键步骤,调用fork。在子进程中会调用proc函数,这个就是在调用ngx_spawn_process时传递的worker进程初始化函数,这里就是ngx_worker_process_cycle,用于初始化worker进程相关的信息,并在最后会进入worker进程的主循环。我们先看一下master进程随后的工作,它会继续执行ngx_spawn_process函数的剩余部分。
/**
* 将新创建的进程放入master进程的ngx_processes数组中
*/
ngx_processes[s].pid = pid;
ngx_processes[s].exited = 0;
if (respawn >= 0) {
return pid;
}
ngx_processes[s].proc = proc;
ngx_processes[s].data = data;
ngx_processes[s].name = name;
ngx_processes[s].exiting = 0;
switch (respawn) {
case NGX_PROCESS_NORESPAWN:
ngx_processes[s].respawn = 0;
ngx_processes[s].just_spawn = 0;
ngx_processes[s].detached = 0;
break;
case NGX_PROCESS_JUST_SPAWN:
ngx_processes[s].respawn = 0;
ngx_processes[s].just_spawn = 1;
ngx_processes[s].detached = 0;
break;
case NGX_PROCESS_RESPAWN:
ngx_processes[s].respawn = 1;
ngx_processes[s].just_spawn = 0;
ngx_processes[s].detached = 0;
break;
case NGX_PROCESS_JUST_RESPAWN:
ngx_processes[s].respawn = 1;
ngx_processes[s].just_spawn = 1;
ngx_processes[s].detached = 0;
break;
case NGX_PROCESS_DETACHED:
ngx_processes[s].respawn = 0;
ngx_processes[s].just_spawn = 0;
ngx_processes[s].detached = 1;
break;
}
if (s == ngx_last_process) {
ngx_last_process++;
}
return pid;
master进程的剩余工作就是更新全局进程表中,新建的worker进程的一些状态信息。当master进程从ngx_start_worker_processes函数返回后,直接进入master进程的主循环。
/**
* master进程的主循环
*/
for ( ;; ) {
if (delay) {
if (ngx_sigalrm) {
sigio = 0;
delay *= 2;
ngx_sigalrm = 0;
}
ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"termination cycle: %d", delay);
itv.it_interval.tv_sec = 0;
itv.it_interval.tv_usec = 0;
itv.it_value.tv_sec = delay / 1000;
itv.it_value.tv_usec = (delay % 1000 ) * 1000;
if (setitimer(ITIMER_REAL, &itv, NULL) == -1) {
ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
"setitimer() failed");
}
}
ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "sigsuspend");
sigsuspend(&set);
ngx_time_update();
ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
"wake up, sigio %i", sigio);
if (ngx_reap) {
ngx_reap = 0;
ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "reap children");
live = ngx_reap_children(cycle);
}
if (!live && (ngx_terminate || ngx_quit)) {
ngx_master_process_exit(cycle);
}
if (ngx_terminate) {
if (delay == 0) {
delay = 50;
}
if (sigio) {
sigio--;
continue;
}
sigio = ccf->worker_processes + 2 /* cache processes */;
if (delay > 1000) {
ngx_signal_worker_processes(cycle, SIGKILL);
} else {
ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_TERMINATE_SIGNAL));
}
continue;
}
if (ngx_quit) {
ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
ls = cycle->listening.elts;
for (n = 0; n < cycle->listening.nelts; n++) {
if (ngx_close_socket(ls[n].fd) == -1) {
ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_socket_errno,
ngx_close_socket_n " %V failed",
&ls[n].addr_text);
}
}
cycle->listening.nelts = 0;
continue;
}
if (ngx_reconfigure) {
ngx_reconfigure = 0;
if (ngx_new_binary) {
ngx_start_worker_processes(cycle, ccf->worker_processes,
NGX_PROCESS_RESPAWN);
ngx_start_cache_manager_processes(cycle, 0);
ngx_noaccepting = 0;
continue;
}
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reconfiguring");
cycle = ngx_init_cycle(cycle);
if (cycle == NULL) {
cycle = (ngx_cycle_t *) ngx_cycle;
continue;
}
ngx_cycle = cycle;
ccf = (ngx_core_conf_t *) ngx_get_conf(cycle->conf_ctx,
ngx_core_module);
ngx_start_worker_processes(cycle, ccf->worker_processes,
NGX_PROCESS_JUST_RESPAWN);
ngx_start_cache_manager_processes(cycle, 1);
live = 1;
ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
}
if (ngx_restart) {
ngx_restart = 0;
ngx_start_worker_processes(cycle, ccf->worker_processes,
NGX_PROCESS_RESPAWN);
ngx_start_cache_manager_processes(cycle, 0);
live = 1;
}
if (ngx_reopen) {
ngx_reopen = 0;
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reopening logs");
ngx_reopen_files(cycle, ccf->user);
ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_REOPEN_SIGNAL));
}
if (ngx_change_binary) {
ngx_change_binary = 0;
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "changing binary");
ngx_new_binary = ngx_exec_new_binary(cycle, ngx_argv);
}
if (ngx_noaccept) {
ngx_noaccept = 0;
ngx_noaccepting = 1;
ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
}
}
master进程的主循环中主要是处理外部信号,像ngx_restart、ngx_noaccept和ngx_quit这样的全局变量都是由ngx_signal_handler更新的,这个函数就是master进程的信号处理函数,在接收到信号时会修改相应的变量。master主循环处理的就是在接收到的外部信号时,向所有的worker进程发送相应的信号。在主循环中通过调用sigsuspend(&set);这个函数阻塞进程,直到接收到相应的信号才会被唤醒,这样就避免了不停检查,节省了cpu。master进程的退出是由ngx_master_process_exit函数完成的,这个函数会调用所有模块的exit_master回调函数,然后关闭监听socket,最后调用exit退出。
下面,我们继续跟踪一下worker进程的执行动态,上面说到worker进程会执行ngx_worker_process_cycle函数,下面就看看这个函数的细节。
ngx_process = NGX_PROCESS_WORKER;
/**
* 初始化worker进程。
* 根据配置文件初始化worker进程,比如配置文件中的cpu亲缘性、priority、work directory等等,
* 同时关闭对端的channel。还会调用所有模块的init_process回调函数。最后会调用
* ngx_add_channel_event将channel添加到事件循环中。
*/
ngx_worker_process_init(cycle, 1);
先是设置ngx_process,这个变量就是当前进程的类型。然后调用ngx_worker_process_init函数初始化worker进程,并且会调用所有模块的init_process回调函数,最后将channel添加到事件循环中,以便可以监听master进程发送消息。重要的工作就是这些,由于代码过长,这里就不贴了。
/*
* 设置worker 进程的title
*/
ngx_setproctitle("worker process");
设置worker进程title。接下来进入worker进程的事件循环,
/**
* worker进程的事件循环。
*/
for ( ;; ) {
/**
* 处理nginx退出
*/
if (ngx_exiting) {
c = cycle->connections;
for (i = 0; i < cycle->connection_n; i++) {
/* THREAD: lock */
if (c[i].fd != -1 && c[i].idle) {
c[i].close = 1;
c[i].read->handler(c[i].read);
}
}
if (ngx_event_timer_rbtree.root == ngx_event_timer_rbtree.sentinel)
{
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "exiting");
/**
* worker进程退出,会调用所有模块的exit_process回调函数
* 销毁cycle生命周期的内存池,最后调用exit(0)
*/
ngx_worker_process_exit(cycle);
}
}
ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "worker cycle");
/**
* 网络事件处理函数
*/
ngx_process_events_and_timers(cycle);
if (ngx_terminate) {
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "exiting");
/**
* 同上,退出worker进程
*/
ngx_worker_process_exit(cycle);
}
if (ngx_quit) {
ngx_quit = 0;
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0,
"gracefully shutting down");
ngx_setproctitle("worker process is shutting down");
if (!ngx_exiting) {
/**
* 关闭所有的监听socket
*/
ngx_close_listening_sockets(cycle);
ngx_exiting = 1;
}
}
if (ngx_reopen) {
ngx_reopen = 0;
ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reopening logs");
ngx_reopen_files(cycle, -1);
}
}
worker主循环内主要是对master进程发送的信号的处理,比如是否退出、重启等。worker进程的退出是通过ngx_worker_process_exit函数完成,这个函数会关闭所有的socket,并调用所有模块的exit_process回调函数,最后调用exit退出。这个主循环处理的网络io事件是由ngx_process_events_and_timers函数完成的,它最终会调用epoll_wait函数阻塞住,一直到有事件发生。具体的事件处理部分会在事件模型一篇文章中介绍。
本篇介绍了nginx进程模型,我们知道了master进程和worker进程的职责,以及master和worker进程的主循环。在worker进程的主循环中主要处理网络io事件,这里涉及到事件模型,下一篇我们就介绍nginx的事件模型。