本文主要讨论在高实时要求、高效能计算、DPDK等领域,Linux如何让某一个线程排他性独占CPU;独占CPU涉及的线程、中断隔离原理;以及如何在排他性独占的状况下,甚至让系统的timer tick也不打断独占任务,从而实现最低的延迟抖动。

本文目录:less

工程需求

用户态隔离

内核态隔离

3.1 中断

3.2 内核线程

最佳实践指南

1. 工程需求

在一个SMP或者NUMA系统中,CPU的数量大于1。在工程中,咱们有时候有一种需求,就是让某个可以独占CPU,这个CPU什么都不作,就只作指定的任务,从而得到低延迟、高实时的好处。性能

好比在DPDK中,经过设置线程

GRUB_CMDLINE_LINUX_DEFAULT=“isolcpus=0-3,5,7”

隔离CPU0,3,5,7,让DPDK的任务在运行的时候,其余任务不会和DPDK的任务进行上下文切换,从而保证网络性能最佳[1]。在Realtime应用场景中,经过isolcpus=2隔离CPU2,而后把实时应用经过taskset绑定到隔离的核:3d

taskset-c 2 pn_dev

从而保证低延迟要求[2]。code

2. 用户态隔离

这个地方,咱们能够看出,它们统一都使用了isolcpus这样一个启动参数。blog

实践是检验真理的惟一标准,下面咱们来启动一个8核的ARM64系统,运行Ubuntu,并指定isolcpus=2这个启动参数:进程

系统启动后,咱们运行下面简单的程序(启动8个进程运行while死循环):文档

咱们是8核的,如今又是运行8个进程,因此理论上来说,负载均衡后,8个进程应该均分地运行在8个核上面,可是咱们来看看实际的htop结果:

咱们发现3(也就是CPU2)上面的CPU占用率是0.0%。这实证了CPU2已经被隔离,用户空间的进程不能在它上面跑。

固然,这个时候,咱们能够经过taskset,强行把其中的一个a.out,绑定到CPU2上面去:

从上面命令的结果看出,663本来的affinity list只有0,1,3-7是没有2的,而咱们强行把它设置为了2,以后再看htop,CPU2上面占用100%:

经过上面的实验,咱们明显能够看出isolcpus=2使得CPU2上没法再运行用户空间的进程了(除非手动设置affinity)。

3. 内核态隔离

中断

可是,能在CPU2上面运行的,不是只有用户态的任务,还能够有内核线程、中断等,那么isolcpus=可否隔离内核线程和中断呢?

对于中断,咱们特别容易查看,就是实际去验证每一个IRQ的smp_affinity就行了:

linux 占用gpu的进程 linux 进程独占cpu_linux 占用gpu的进程

从上图明显能够看出,对于4四、47号这种外设的中断,Linux内核把smp_affinity设置为了FB(11111011),明显避开了CPU2,因此,实际外设中断也不会在CPU2发生,除非咱们强行给中断绑核,好比让44号中断绑定到CPU2:

echo 2 >/proc/irq/44/smp_affinity_list

以后,咱们发现44号中断在CPU2能够发生:

linux 占用gpu的进程 linux 进程独占cpu_linux 占用gpu的进程_02

可是,系统的timer中断、IPI,因为是Linux系统的运行基石,实际仍是要在CPU2上面运行的。这里面最可能给任务带来延迟抖动的,天然是timer tick。

下面咱们重点探讨下tick的问题,因为Linux通常状况下,已经配置IDLE状态的NO_HZ tickless,因此CPU2上面什么都不跑的时候,实际timer中断几乎不发生。

下面,咱们仍是在isolcpus=2的状况下,运行前面那个8个进程的a.out,默认状况下没有任务会占用CPU2。经过前后运行几回cat /proc/interrupts | head 2,咱们会看到其余core的timer中断频繁发生,而CPU2几乎不变,这显然是IDLE时候的NO_HZ在发挥省电的做用:

linux 占用gpu的进程 linux 进程独占cpu_内核态_03

可是,一旦咱们听任务到CPU2,哪怕只是放1个,就会发现CPU2上面的timer中断开始增长:

linux 占用gpu的进程 linux 进程独占cpu_linux 占用gpu的进程_04

这说明一点,哪怕隔离的CPU上面只有一个线程去跑,timer tick就会开始跑,固然,这个timer tick也会频繁打断这一个线程,从而形成大量的上下文切换。你确定会以为Linux怎么这么傻,既然只有一我的,那也没有时间片分片的必要,不须要在2个或者多个任务进行时间片划分地调度,为啥还要跑tick?其实缘由是咱们的内核默认只是使能了IDLE的NO_HZ:

linux 占用gpu的进程 linux 进程独占cpu_内核线程_05

咱们来从新编译一个内核,使能NO_HZ_FULL:

linux 占用gpu的进程 linux 进程独占cpu_内核态_06

当咱们使能了NO_HZ_FULL后,Linux支持在CPU上仅有1个任务的时候,是能够NO_HZ的。可是有2个就傻眼了,因此这个“FULL”也不是真地FULL[3]。这固然也能够理解,由于有2个就涉及到时间片调度的问题。何时应该使能NO_HZ_FULL,内核文档Documentation/timers/no_hz.rst有明确地“指示”,只有在实时和HPC等的场景,才须要,不然默认的NO_HZ_IDLE是你最好的选择:

linux 占用gpu的进程 linux 进程独占cpu_linux 占用gpu的进程_07

咱们从新编译了内核,选中了NO_HZ_FULL,下面启动Linux,注意启动的时候参数添加nohz_full=2,让CPU2支持NO_HZ_FULL:

linux 占用gpu的进程 linux 进程独占cpu_内核态_08

从新运行CPU2只有一个任务的场景,看看它的timer中断发生状况:

linux 占用gpu的进程 linux 进程独占cpu_内核线程_09

发现CPU2上面的tick稳定在188上面,这样相信你会更加开心,由于你独占地更加完全了!

下面,咱们再放一个task进去CPU2,有2个任务的状况下,CPU2上面的timer tick开始增长:

linux 占用gpu的进程 linux 进程独占cpu_内核线程_10

不过,这或许不是个问题,由于咱们说好了“独占”,1个任务独占的时候,timer tick不来打扰,应该已是很是理想的状况了!

内核态线程

内核态的线程其实和用户态差很少,当它们没有绑定到隔离的CPU的时候,是不会跑到隔离CPU运行的。下面用笔者在内核里面添加的dma_map_benchmark来作实验[4],开启16个内核线程来进行DMA map和unmap(注意咱们只有8个核):

./dma_map_benchmark -s 120 -t 16

咱们看到CPU2上面的CPU占用也是0:

linux 占用gpu的进程 linux 进程独占cpu_内核态_11

内核里面的dma_map_benchmark线程在狂占CPU0-1, 3-7,可是就是不去占CPU2:

linux 占用gpu的进程 linux 进程独占cpu_linux 独占 cpu_12

可是,内核线程若是用kthread_bind_mask()相似API把线程绑定到了隔离的CPU,则状况就不同了,这就相似用taskset把用户态的任务绑定到CPU同样。

4. 最佳实践指南

对于实时性要求高、高性能计算等场景,若是要让某个任务独占CPU,最理想的选择是:

采用isolcpus隔离CPU

将指定任务绑定到隔离CPU

当心意外地把中断、内核线程绑定到了隔离CPU,排查到这些“意外”分子

使能NO_HZ_FULL,则效果更佳,由于连timer tick中断也不打扰你了。