Cgroup资源配置方法


文章目录

  • Cgroup资源配置方法
  • 一、Cgroup概述
  • 二、使用stress工具测试CPU和内存
  • 三、CPU周期限制
  • 四、CPU Core控制
  • 五、CPU配额控制控制参数的混合使用
  • 六、内存限额
  • 七、Block IO的限制
  • 八、bps和iops的限制


一、Cgroup概述

Docker通过Cgroup来控制容器使用额资源配额,包括CPU、内存、磁盘三大方面,基本覆盖了常见的资源配额很使用量控制

Cgroup是Control Groups的缩写,是Linux内核提供额一种可以限制、记录、隔离进程组所使用的物理资源(如CPU、内存、磁盘、IO等)等机制,被LXC、docker等很多项目用于实现进程资源控制。Cgroup本身是提供将进程进行分组化管理的功能和接口的基础结构,I/O 或内存的分配控制等具体的资源管理功能是通过这个功能来实现的,这些具体的资源管理功能称为Cgroup子系统,有以下几大子系统实现:

blkio:设置限制每个块设备的输入输出控制,例如:磁盘、光盘以及usb等
CPU:使用调度程序为cgroup任务提供CPU的访问
cpuacct:产生cgroup任务的CPU资源报告
cpuset:如果是多核心的CPU,这个子系统会为cgroup任务分配单独的CPU和内存
devices:允许或拒绝cgroup任务对设备的访问
freezer:暂停和恢复cgroup任务
memory:设置每个cgroup的内存限制以及产生内存资源报告
net_cls:标记每个网络包以供cgroup方便使用
ns:命名空间子系统
perf_event:增加了对每个group的监测跟踪的能力,可以监测属于某个特定的group的所有线程以及运行在特定CPU上的线程

二、使用stress工具测试CPU和内存

默认情况下,每个Docker容器的CPU的CPU份额都是1024,单独一个容器的份额是没有意义的,只有在同时运行多个容器时,容器的CPU加权效果才能体现出来。
例如:两个容器AB的CPU份额分别为1000和500,在CPU进行时间片分配的时候,容器A比容器B多一倍的机会获得CPU的时间片,但分配的结果取决于当时主机和其他容器运行状态,实际上也无法保证容器A一定能获得CPU时间片,比如容器A的进程一直是空闲的,那么容器B是可以获取比容器A更多的CPU时间片的,极端情况下,例如主机上只运行了一个容器,即使它的CPU份额只有50,它也可以独占整个主机的CPU资源

Cgroup只在容器分配的资源紧缺时,即在需要对容器使用的资源进行限制时才会生效,因为无法单纯根据某个容器的CPU份额来确定有多少CPU资源分配给它
资源分配结果取决于同时运行的其他容器的CPU分配和容器中进程运行情况
可以通过cpu share可以设置容器使用CPU的优先级,比如启动了两个容器及运行查看CPU使用百分比。

docker run -itd --name cpu512 --cpu-shares 512 centos:stress stress -c 10
PS:让容器产生10个子函数进程

进入容器使用top命令进行查看:
docker exec -it [容器ID号] bash

部署架构如何体现资源配置 资源配置的渠道_centos

再开启一个容器做比较

docker run -itd --name cpu512 --cpu-shares 1024 centos:stress stress -c 10

部署架构如何体现资源配置 资源配置的渠道_centos_02

三、CPU周期限制

  • Docker提供了–cpu-period、–cpu-quota两个参数控制容器可以分配到的CPU时钟周期
    –cpu-period是用来指定容器对CPU的使用要在多长时间内做一次重新分配
  • –cpu-quota是用来指定在这个周期内,最多可以有多少时间来跑这个容器,与–cpu-shares不同的是,这种配置是指定一个绝对值,容器CPU对资源的使用绝对不会超过配置的值
  • cpu-period和cpu-quota的单位为微秒(μs)。cpu-period的最小值为1000微秒,最大值为1秒(10^6μs),默认值是0.1秒(100000μs),cpu-quota的默认值为-1,表示不做控制,cpu-period和cpu-quota参数一般联合使用
  • 例如:容器进程需要每1秒使用单个CPU的0.2秒时间,可以将cpu-period设置为1000000(即1秒),cpu-quota设置为200000(0.2秒)。当然,在多核情况下,如果允许容器进程完全占用两个CPU,则可以将cpu-period设置为100000(即0.1秒),cpu-quota设置为200000(0.2秒)

创建一个容器,分配

docker run -itd --cpu-period 100000 --cpu-quota 200000 centos:stress

进入容器

docker exec -it [容器ID] bash

分别查看cpu-period与cpu-quota配置参数

[root@b14f6dafa8f3 /]# cat /sys/fs/cgroup/cpu/cpu.cfs_period_us 
100000

[root@b14f6dafa8f3 /]# cat /sys/fs/cgroup/cpu/cpu.cfs_quota_us  
200000

四、CPU Core控制

对于多核CPU服务器,Docker还可以控制容器运行使用那些CPU内核。即使用–cpuset-cpus参数
这对具有多CPU的服务器尤其有用,可以对需要高性能计算的容器进行性能最优的配置

创建容器,指定创建的容器只能用0、1两个内核

docker run -itd --name cpu1 --cpuset-cpus 0-1 centos:stress

进入容器查看

docker exec -it [容器ID号] bash    ## 进入容器

[root@6e748f17a0fb /]# cat /sys/fs/cgroup/cpuset/cpuset.cpus
0-1

通过下面的命令可以看到容器中进程与CPU内核的绑定关系,达到绑定CPU内核的目的(-p:指定pid,-c:绑定指定的CPU核心上运行)

[root@server ~]# docker exec [容器ID号] taskset -c -p 1
pid 1's current affinity list: 0,1

进一步来验证是否使用的是0和1核心,在容器内执行命令进行测试

进入容器中,执行命令:
stress -c 10
使用top命令查看CPU负载情况

部署架构如何体现资源配置 资源配置的渠道_centos_03

五、CPU配额控制控制参数的混合使用

  • 通过cpuset-cpus参数指定容器A使用CPU内核0,容器B只是用CPU内核1,在主机商只有这两个容器使用对应CPU内核的情况,它们各自占用全部的内核资源,cpu-shares没有明显效果
  • cpuset-cpus、cpuset-mems参数只是在多核、多内存节点上的服务器上有效,并且必须与实际的物理配置匹配,否则也无法达到资源控制的目的
  • 在系统具有多个CPU内核的情况下,需要通过cpuset-cpus参数为设置容器CPU内核才能方便地进行测试

在虚拟机中将系统修改为4核心CPU

docker run -itd --name cpu3 --cpuset-cpus 1 --cpu-shares 512 centos:stress stress -c 1
docker exec -it [容器ID] bash

再创建一个容器:

docker run -itd --name cpu4 --cpuset-cpus 3 --cpu-shares 1024 centos:stress stress -c 1
docker exec -it [容器ID] bash

总结:上面的centos:stress镜像安装了stress工具,用来测试CPU和内存的负载,通过在两个容器上分别执行stress -c 1命令,将会给系统一个随机负载,产生1个进程,这个进程都反复不停的计算由rand()产生随机数的平方根,直到资源耗尽
观察宿主机上CPU的使用率,第三个内核的使用率接近100%,并且一批进程的CPU使用率明显存在2:1的使用比例的对比

六、内存限额

与操作系统类似,容器可以使用的内存包括两部分:物理内存和Swap
Docker通过下面两组参数来控制内存的使用量

-m或–mempry:设置内存的使用限额,例如:100M,1024M
–memory-swap:设置内存+swap的使用限额
执行如下命令允许该容器最多试用200M的内存和300M的swap

docker run -it -m 200M --memory-swap=300M progrium/stress -vm 1 --vm-bytes 280M
--vm 1:启动1个内存工作线程
--vm-bytes 280M:每个线程分配280M内存

部署架构如何体现资源配置 资源配置的渠道_部署架构如何体现资源配置_04

与CPU的cgroups配置类似,Docker会自动为容器在目录/sys/fs/cgroup/memory/docker/<容器的完整长ID>中创建相应cgroup配置文件

如果让工作线程分配的内存超过300M,分配的内存超过限额,stress线程就会报错,容器退出

docker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 310M

部署架构如何体现资源配置 资源配置的渠道_部署架构如何体现资源配置_05

七、Block IO的限制

默认情况下,所有容器能平等地读写磁盘,可以通过设置–blkio-weight参数来改变容器block IO的优先级,–blkio-weight与–cpu-shares类似,设置的是相对权重值,默认为500

下面的示例中,容器A读写磁盘的带宽是容器B的两倍

docker run -it --name container_A --blkio-weight 600 centos:stress

[root@c6f5bbd5b39c /]# cat /sys/fs/cgroup/blkio/blkio.weight
600
docker run -it --name container_B --blkio-weight 300 centos:stress

[root@e2fe3fc2d594 /]# cat /sys/fs/cgroup/blkio/blkio.weight
300

八、bps和iops的限制

bps是byte per second,每秒读写的数据量
iops是io per second,每秒IO的次数
可通过以下参数控制容器的bps和iops

–device-read-bps,限制读某个设备的bps
–device-write-bps,限制写某个设备的bps
–device-read-iops,限制某个设备的iops
–device-write-iops,限制写某个设备的iops

下面的示例四限制容器写/dev/sda的速率为5MB/s

docker run -it --device-write-bps /dev/sda:5MB centos:stress
使用命令进行写入操作:
dd if=/dev/zero of=test bs=1M count=1024 oflag=direct   //可以按Ctrl+C中断

[root@b1833adb87f4 /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct
^C164+0 records in
164+0 records out
171966464 bytes (172 MB) copied, 32.8046 s, 5.2 MB/s   ## 可以看到写入速度

如果不做限制:

创建一个容器:

docker run -it centos:stress
[root@8c8b7492fac0 /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied, 5.66804 s, 189 MB/s

不做限制:

创建一个容器:

docker run -it centos:stress
[root@8c8b7492fac0 /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied, 5.66804 s, 189 MB/s