Create Cgroups控制cpu,内存,io示例.md

This commit is contained in:
wenchao1024
2022-01-20 20:19:10 +08:00
committed by GitHub
parent 395e869a5d
commit e41a20f245

View File

@@ -0,0 +1,156 @@
# Cgroups控制cpu内存io示例
> Cgroups是control groups的缩写最初由Google工程师提出后来编进linux内核。
>
> Cgroups是实现IaaS虚拟化(kvm、lxc等)PaaS容器沙箱(Docker等)的资源管理控制部分的底层基础。
百度私有PaaS云就是使用轻量的cgoups做的应用之间的隔离以下是关于百度架构师许立强对于虚拟机VM应用沙盒cgroups技术选型的理解
![img](https://images0.cnblogs.com/i/319578/201405/252326220902394.jpg)
本文用脚本运行示例进程来验证Cgroups关于cpu、内存、io这三部分的隔离效果。
测试机器CentOS release 6.4 (Final)
启动Cgroups
```
service cgconfig start #开启cgroups服务
chkconfig cgconfig on #开启启动
```
在/cgroup有如下文件夹默认是多挂载点的形式即各个子系统的配置在不同的子文件夹下
```
[root@localhost /]# ls /cgroup/
blkio cpu cpuacct cpuset devices freezer memory net_cls
```
## cgroups管理进程cpu资源
跑一个耗cpu的脚本
```
x=0
while [ True ];do
x=$x+1
done;
```
top可以看到这个脚本基本占了100%的cpu资源
```
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
30142 root 20 0 104m 2520 1024 R 99.7 0.1 14:38.97 sh
```
下面用cgroups控制这个进程的cpu资源
```
mkdir -p /cgroup/cpu/foo/ #新建一个控制组foo
echo 50000 > /cgroup/cpu/foo/cpu.cfs_quota_us #将cpu.cfs_quota_us设为50000相对于cpu.cfs_period_us的100000是50%
echo 30142 > /cgroup/cpu/foo/tasks
```
然后top的实时统计数据如下cpu占用率将近50%看来cgroups关于cpu的控制起了效果
```
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 30142 root 20 0 105m 2884 1024 R 49.4 0.2 23:32.53 sh
```
cpu控制组foo下面还有其他的控制还可以做更多其他的关于cpu的控制
```
[root@localhost ~]# ls /cgroup/cpu/foo/
cgroup.event_control cgroup.procs cpu.cfs_period_us cpu.cfs_quota_us cpu.rt_period_us cpu.rt_runtime_us cpu.shares cpu.stat notify_on_release tasks
```
## cgroups管理进程内存资源
跑一个耗内存的脚本,内存不断增长
```
x="a"
while [ True ];do
x=$x$x
done;
```
top看内存占用稳步上升
```
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 30215 root 20 0 871m 501m 1036 R 99.8 26.7 0:38.69 sh
30215 root 20 0 1639m 721m 1036 R 98.7 38.4 1:03.99 sh
30215 root 20 0 1639m 929m 1036 R 98.6 49.5 1:13.73 sh
```
下面用cgroups控制这个进程的内存资源
```
mkdir -p /cgroup/memory/foo
echo 1048576 > /cgroup/memory/foo/memory.limit_in_bytes #分配1MB的内存给这个控制组
echo 30215 > /cgroup/memory/foo/tasks
```
发现之前的脚本被kill掉
```
[root@localhost ~]# sh /home/test.sh
已杀死
```
因为这是强硬的限制内存当进程试图占用的内存超过了cgroups的限制会触发out of memory导致进程被kill掉。
实际情况中对进程的内存使用会有一个预估然后会给这个进程的限制超配50%比如除非发生内存泄露等异常情况才会因为cgroups的限制被kill掉。
也可以通过配置关掉cgroups oom kill进程通过memory.oom_control来实现oom_kill_disable 1但是尽管进程不会被直接杀死但进程也进入了休眠状态无法继续执行仍让无法服务。
关于内存的控制,还有以下配置文件,关于虚拟内存的控制,以及权值比重式的内存控制等
```
[root@localhost /]# ls /cgroup/memory/foo/
cgroup.event_control memory.force_empty memory.memsw.failcnt memory.memsw.usage_in_bytes memory.soft_limit_in_bytes memory.usage_in_bytes tasks
cgroup.procs memory.limit_in_bytes memory.memsw.limit_in_bytes memory.move_charge_at_immigrate memory.stat memory.use_hierarchy
memory.failcnt memory.max_usage_in_bytes memory.memsw.max_usage_in_bytes memory.oom_control memory.swappiness notify_on_release
```
## cgroups管理进程io资源
跑一个耗io的脚本
```
dd if=/dev/sda of=/dev/null &
```
通过iotop看io占用情况磁盘速度到了284M/s
```
30252 be/4 root 284.71 M/s 0.00 B/s 0.00 % 0.00 % dd if=/dev/sda of=/dev/null
```
下面用cgroups控制这个进程的io资源
```
mkdir -p /cgroup/blkio/foo
echo '8:0 1048576' > /cgroup/blkio/foo/blkio.throttle.read_bps_device
#8:0对应主设备号和副设备号可以通过ls -l /dev/sda查看
echo 30252 > /cgroup/blkio/foo/tasks
```
再通过iotop看确实将读速度降到了1M/s
```
30252 be/4 root 993.36 K/s 0.00 B/s 0.00 % 0.00 % dd if=/dev/sda of=/dev/null
```
对于io还有很多其他可以控制层面和方式如下
```
[root@localhost ~]# ls /cgroup/blkio/foo/
blkio.io_merged blkio.io_serviced blkio.reset_stats blkio.throttle.io_serviced blkio.throttle.write_bps_device blkio.weight cgroup.procs
blkio.io_queued blkio.io_service_time blkio.sectors blkio.throttle.read_bps_device blkio.throttle.write_iops_device blkio.weight_device notify_on_release
blkio.io_service_bytes blkio.io_wait_time blkio.throttle.io_service_bytes blkio.throttle.read_iops_device blkio.time cgroup.event_control tasks
```
> 原文链接https://www.cnblogs.com/yanghuahui/p/3751826.html