Lework Study hard, improve every day.

[Linux性能优化]2.理解linux的CPU上下文

2019-06-16
lework
本文 9526 字,阅读全文约需 28 分钟

Linux 是一个多任务操作系统,它支持远大于CPU数量的任务同时运行.当然,这些任务实际上并不是真的在同时运行,而是因为系统在很短的时间内,将CPU轮流分配给它们,造成多任务同时运行的错觉。而在每个任务运行前,CPU都需要知道任务从哪里加载、又从哪里开始运行,也就是说, 需要系统事先帮它设置好CPU寄存器程序计数器(Program Counter,PC)。

CPU寄存器,是CPU内置的容量小、但速度极快的内存。而程序计数器,则是用来存储CPU 正在执行的指令位置、或者即将执行的下一条指令位置。它们都是CPU在运行任何任务前,必须的依赖环境,因此也被叫做CPU上下文

+------------------------------------------------------------+
|                                                            |
| General Registers                                          |
|                                               CPU          |
|  +-------------+    +------------------+                   |
|  |     R0      |    |                  |    +------------+ |
|  +-------------+    |                  |    |    PC      +----+
|                     |                  |    +------------+ |  |
|  +-------------+    |                  |                   |  |
|  |     R1      |    |       ALU        |    +------------+ |  |
|  +-------------+    |                  |    |      IR    | |  |
|        .            |                  |    +------------+ |  |
|        .            |                  |                   |  |
|  +-------------+    |                  |    +------------+ |  |
|  |     RN      |    |                  |    |      PSR   | |  |
|  +-------------+    +------------------+    +------------+ |  |
|                                                            |  |
+---------------+------------------------+-------------------+  |
                |                        ^                      |
                v                        |                      |
+---------------+------------------------+-------------------+  |
|                                                 +-------+  |  |
|                                                 |   0   |  |  |
|                                                 +-------+  |  |
|                      MEMORY                     |   1   + <---+
|                                                 +-------+  |
|                                                 |   2   |  |
|                                                 +-------+  |
+------------------------------------------------------------+

CPU上下文切换,就是先把前一个任务的CPU上下文(也就是CPU寄存器和程序计数器)保存起来,然后加载新任务的上下文到这些寄存器和程序计数器,最后再跳转到程序计数器所指的新位置,运行新任务。

而这些保存下来的上下文,会存储在系统内核中,并在任务重新调度执行时再次加载进来。这样就能保证任务原来的状态不受影响,让任务看起来还是连续运行。

根据任务的不同,CPU的上下文切换就可以分为几个不同的场景,也就是进程上下文切换、线程上下文切换以及中断上下文切换。

进程上下文切换

Linux 按照特权等级,把进程的运行空间分为内核空间和用户空间,分别对应着下图中,CPU特权等级的Ring 0和Ring 3。

内核空间(Ring 0)具有最高权限,可以直接访问所有资源;

用户空间(Ring 3)只能访问受限资源,不能直接访问内存等硬件设备,必须通过系统调用陷入到内核中,才能访问这些特权资源。

+------------------------------+
|            Ring 3            |
|  +------------------------+  |
|  |         Ring 2         |  |
|  |  +------------------+  |  |
|  |  |      Ring 1      |  |  |
|  |  |   +----------+   |  |  |
|  |  |   |          |   |  |  |
|  |  |   |  Ring 0  |   |  |  |
|  |  |   |  Kernel  |   |  |  |
|  |  |   |          |   |  |  |
|  |  |   +----------+   |  |  |
|  |  |                  |  |  |
|  |  +------------------+  |  |
|  |                        |  |
|  +------------------------+  |
|           application        |
+------------------------------+

换个角度看,也就是说,进程既可以在用户空间运行,又可以在内核空间中运行。进程在用户空间运行时,被称为进程的用户态,而陷入内核空间的时候,被称为进程的内核态。从用户态到内核态的转变,需要通过系统调用来完成。 比如,当我们查看文件内容时,就需要多次系统调用来完成:首先调用open()打开文件,然后调用 read() 读取文件内容,并调用 write() 将内容写到标准输出,最后再调用 close()关闭文件。

一次系统调用的过程,其实是发生了两次CPU上下文切换。

  1. 首先, CPU寄存器里原来用户态的指令位置,需要先保存起来。
  2. 其次,为了执行内核态代码,CPU寄存器需要更新为内核态指令的新位置。最后才是跳转到内核态运行内核任务。

不过,需要注意的是,系统调用过程中,并不会涉及到虚拟内存等进程用户态的资源,也不会切换进程。这跟我们通常所说的进程上下文切换是不一样的:

  • 进程上下文切换,是指从一个进程切换到另一个进程运行。
  • 系统调用过程中一直是同一个进程在运行。

所以,系统调用过程通常称为特权模式切换,而不是上下文切换。但实际上,系统调用过程中,CPU的上下文切换还是无法避免的。

进程上下文切换与系统调用的区别

进程是由内核来管理和调度的,进程的切换只能发生在内核态。所以,进程的上下文不仅包括了虚拟内存、栈、全局变量等用户空间的资源,还包括了内核堆栈、寄存器等内核空间的状态。

因此,进程的上下文切换就比系统调用时多了一步:在保存当前进程的内核状态和CPU寄存器之前,需要先把该进程的虚拟内存、栈等保存下来;而加载了下一进程的内核态后,还需要刷新进程的虚拟内存和用户栈。

如下图所示,保存上下文和恢复上下文的过程并不是“免费”的,需要内核在CPU上运行 才能完成。

    +-----------+-----------------+---------------------+----------+
    |    进程1  |  进程1上下文保存  |   进程2上下文加载    |   进程2  |
+---+-----------+-------+---------+---------------+-----+----------+------->
                        |                         |                    时钟
                        +-----> CPU上下文切换 <----+

进程上线文切换潜在的性能问题

  1. CPU在寄存器、内核栈以及虚拟内存等资源的保存和恢复上
  2. Linux 通过TLB(Translation Lookaside Buffer)来管理虚拟内存到物理内存的映射关系。当虚拟内存更新后,TLB也需要刷新,内存的访问也会随之变慢。

什么时候会切换进程上下文?

进程切换时才需要切换上下文,换句话说,只有在进程调度的时候,才需要切换上下文。Linux 为每个CPU都维护了一个就绪队列,将活跃进程(即正在运行和正在等待CPU的进程)按照优先级和等待CPU的时间排序,然后选择最需要CPU的进程,也就是优先级最高和等待CPU时间最长的进程来运行。

进程在什么时候才会被调度到CPU上运行呢?

最容易想到的一个时机,就是进程执行完终止了,它之前使用的CPU 释放出来,这个时候再从就绪队列里,拿一个新的进程过来运行。其实还有很多其他场景,也会触发进程调度,在这里我给你逐个梳理下。

  • 其一,为了保证所有进程可以得到公平调度,CPU时间被划分为一段段的时间片,这些时间片再被轮流分配给各个进程。这样,当某个进程的时间片耗尽了,就会被系统挂起,切换到其它正在等待CPU的进程运行。
  • 其二,进程在系统资源不足(比如内存不足)时,要等到资源满足后才可以运行,这个时候进程也会被挂起,并由系统调度其他进程运行。
  • 其三,当进程通过睡眠函数sleep这样的方法将自己主动挂起时,自然也会重新调度。
  • 其四,当有优先级更高的进程运行时,为了保证高优先级进程的运行,当前进程会被挂起,由高优先级进程来运行。
  • 最后一个,发生硬件中断时,CPU上的进程会被中断挂起,转而执行内核中的中断服务程序。

线程上下文切换

线程与进程最大的区别在于,线程是调度的基本单位,而进程则是资源拥有的基本单位。

说白了,所谓内核中的任务调度,实际上的调度对象是线程;而进程只是给线程提供了虚拟内存、全局变量等资源。所以,对于线程和进程,我们可以这么理解:

  • 当进程只有一个线程时,可以认为进程就等于线程。
  • 当进程拥有多个线程时,这些线程会共享相同的虚拟内存和全局变量等资源。这些资源在上下文切换时是不需要修改的。
  • 另外,线程也有自己的私有数据,比如栈和寄存器等,这些在上下文切换时也是需要保存的。

这么一来,线程的上下文切换其实就可以分为两种情况:

  • 第一种,前后两个线程属于不同进程。此时,因为资源不共享,所以切换过程就跟进程上下文切换是一样。
  • 第二种,前后两个线程属于同一个进程。此时,因为虚拟内存是共享的,所以在切换时,虚拟内存这些资源就保持不动,只需要切换线程的私有数据、寄存器等不共享的数据。到这里你应该也发现了,虽然同为上下文切换,但同进程内的线程切换,要比多进程间的 切换消耗更少的资源,而这,也正是多线程代替多进程的一个优势。

中断上下文切换

为了快速响应硬件的事件,中断处理会打断进程的正常调度和执行,转而调用中断处理程序,响应设备事件。而在打断其他进程时,就需要将进程当前的状态保存下来,这样在中断结束后,进程仍然可以从原来的状态恢复运行。

跟进程上下文不同,中断上下文切换并不涉及到进程的用户态。所以,即便中断过程打断了一个正处在用户态的进程,也不需要保存和恢复这个进程的虚拟内存、全局变量等用户态资源。

中断上下文,其实只包括内核态中断服务程序执行所必需的状态,包括CPU寄存器、内核堆栈、硬件中断参数等。

对同一个CPU来说,中断处理比进程拥有更高的优先级,所以中断上下文切换并不会与进程上下文切换同时发生。同样道理,由于中断会打断正常进程的调度和执行,所以大部分中断处理程序都短小精悍,以便尽可能快的执行结束。

另外,跟进程上下文切换一样,中断上下文切换也需要消耗CPU,切换次数过多也会耗费大量的CPU,甚至严重降低系统的整体性能。所以,当你发现中断次数过多时,就需要注意去排查它是否会给你的系统带来严重的性能问题。

分析CPU上下文切换

vmstat是一个常用的系统性能分析工具,主要用来分析系统的内存使用情况,也常用来分析CPU上下文切换和中断的次数

# 每隔5秒输出1组数据,输出2次
vmstat 5 2
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
 1  0      0 714176    116 189400    0    0    12  2748  746 1305 11  5 77  6  0
 0  0      0 714176    116 189400    0    0     0     0   45   38  0  0 100  0  0

需要特别关注的

  • r(Running or Runnable)是就绪队列的长度,也就是正在运行和等待 CPU 的进程数。
  • b(Blocked)则是处于不可中断睡眠状态的进程数。
  • in(interrupt)则是每秒中断的次数。
  • cs(context switch)是每秒上下文切换的次数。

可以看到,这个例子中的上下文切换次数cs是38次,而系统中断次数in则是45次,而就绪队列长度r和不可中断状态进程数b都是0。

vmstat 只给出了系统总体的上下文切换情况,要想查看每个进程的详细情况,就需要使用我们前面提到过的pidstat了。给它加上 -w 选项,你就可以查看每个进程上下文切换的情况了。

# 每隔5秒输出1组数据
pidstat -w 5
Linux 3.10.0-693.el7.x86_64 (node74-1) 	2019年06月15日 	_x86_64_	(2 CPU)

23时37分15秒   UID       PID   cswch/s nvcswch/s  Command
23时37分20秒     0         7      0.20      0.00  migration/0
23时37分20秒     0         9      2.20      0.00  rcu_sched

需要特别关注的

  • cswch ,表示每秒自愿上下文切换(voluntary context switches)的次数,是指进程无法获取所需资源,导致的上下文切换。比如说, I/O、内存等系统资源不足时,就会发生自愿上下文切换。
  • nvcswch ,表示每秒非自愿上下文切换(non voluntary context switches)的次数。是指进程由于时间片已到等原因,被系统强制调度,进而发生 的上下文切换。比如说,大量进程都在争抢CPU时,就容易发生非自愿上下文切换。

案列分析

测试环境:

  • OS: centos 7.4
  • 机器配置: 2C1G

测试软件安装:

wget http://pagesperso-orange.fr/sebastien.godard/sysstat-12.1.5-1.x86_64.rpm
yum remove sysstat
yum -y install pcp-libs sysbench
rpm -ivh sysstat-12.1.5-1.x86_64.rpm

模拟系统多线程调度的瓶颈

# 以10个线程运行5分钟的基准测试,模拟多线程切换的问题
sysbench --threads=10 --time=300 threads run
sysbench 1.0.17 (using system LuaJIT 2.0.4)

Running the test with following options:
Number of threads: 10
Initializing random number generator from current time


Initializing worker threads...

Threads started!

观察上下文切换情况

# 每隔1秒输出1组数据(需要Ctrl+C才结束)
# vmstat 1
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
10  0      0 684692    116 212940    0    0    12  2614  715  748 11  5 78  6  0
 8  0      0 684676    116 212940    0    0     0     0 2202 2673573 11 89  1  0  0
 5  0      0 684676    116 212940    0    0     0     0 2325 2507807 12 88  1  0  0

可以发现,cs列的上下文切换次数从之前的748骤然上升到了267万。

需要注意的指标:

  • r 列:就绪队列的长度已经到了 8,远远超过了系统 CPU 的个数2,所以肯定会有大量的CPU竞争。
  • us(user)和sy(system)列:这两列的CPU使用率加起来上升到了100%,其中系统 CPU 使用率,也就是sy列高达 84%,说明CPU主要是被内核占用了。
  • in 列:中断次数也上升到了2千左右,说明中断处理也是个潜在的问题。

观察CPU和进程上下文切换

# 每隔1秒输出1组数据(需要Ctrl+C才结束)
# -w 参数表示输出进程切换指标,而-u参数则表示输出CPU使用指标
# pidstat -w -u 1
Linux 3.10.0-693.el7.x86_64 (node74-1) 	2019年06月15日 	_x86_64_	(2 CPU)

23时48分15秒   UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
23时48分16秒     0     12888   20.79  175.25    0.00    0.00  196.04     0  sysbench
23时48分16秒     0     12901    0.00    0.99    0.00    0.00    0.99     0  pidstat

23时48分15秒   UID       PID   cswch/s nvcswch/s  Command
23时48分16秒     0         3      0.99      0.00  ksoftirqd/0
23时48分16秒     0         9      5.94      0.00  rcu_sched
23时48分16秒     0        99      0.99      0.00  kworker/1:2
23时48分16秒     0       698      9.90      0.00  vmtoolsd
23时48分16秒     0      3068      0.99      0.00  kworker/u256:0
23时48分16秒     0     12858      3.96      0.00  kworker/0:1
23时48分16秒     0     12900      0.99      0.00  kworker/0:0
23时48分16秒     0     12901      0.99      0.00  pidstat

从输出可以发现,CPU使用率的升高果然是sysbench导致的,它的CPU使用率已经达到了196%。但是上下文切换没有体现出来,这是因为sysbench模拟的是线程调度压力,而pidstat默认显示的是进程的上下文,加上-t选项就能看出线程的上下文数据了。

# pidstat -w -u -t 1
Linux 3.10.0-693.el7.x86_64 (node74-1) 	2019年06月15日 	_x86_64_	(2 CPU)

23时53分00秒   UID      TGID       TID    %usr %system  %guest   %wait    %CPU   CPU  Command
23时53分01秒     0     12904         -   20.59  175.49    0.00    0.00  196.08     0  sysbench
23时53分01秒     0         -     12905    2.94   16.67    0.00   50.00   19.61     0  |__sysbench
23时53分01秒     0         -     12906    1.96   17.65    0.00   41.18   19.61     1  |__sysbench
23时53分01秒     0         -     12907    1.96   17.65    0.00   49.02   19.61     0  |__sysbench
23时53分01秒     0         -     12908    1.96   18.63    0.00   50.00   20.59     0  |__sysbench
23时53分01秒     0         -     12909    1.96   16.67    0.00   33.33   18.63     0  |__sysbench
23时53分01秒     0         -     12910    1.96   17.65    0.00   49.02   19.61     1  |__sysbench
23时53分01秒     0         -     12911    1.96   16.67    0.00   40.20   18.63     0  |__sysbench
23时53分01秒     0         -     12912    2.94   16.67    0.00   43.14   19.61     1  |__sysbench
23时53分01秒     0         -     12913    2.94   17.65    0.00   49.02   20.59     0  |__sysbench
23时53分01秒     0         -     12914    1.96   18.63    0.00   53.92   20.59     1  |__sysbench
23时53分01秒     0     12915         -    0.00    0.98    0.00    0.00    0.98     1  pidstat
23时53分01秒     0         -     12915    0.00    1.96    0.00    0.00    1.96     1  |__pidstat

23时53分00秒   UID      TGID       TID   cswch/s nvcswch/s  Command
23时53分01秒     0         9         -     11.76      0.00  rcu_sched
23时53分01秒     0         -         9     11.76      0.00  |__rcu_sched
23时53分01秒     0        10         -      0.98      0.00  watchdog/0
23时53分01秒     0         -        10      0.98      0.00  |__watchdog/0
23时53分01秒     0        11         -      0.98      0.00  watchdog/1
23时53分01秒     0         -        11      0.98      0.00  |__watchdog/1
23时53分01秒     0        13         -      1.96      0.00  ksoftirqd/1
23时53分01秒     0         -        13      1.96      0.00  |__ksoftirqd/1
23时53分01秒     0        99         -      2.94      0.00  kworker/1:2
23时53分01秒     0         -        99      2.94      0.00  |__kworker/1:2
23时53分01秒     0         -       695      0.98      0.00  |__in:imjournal
23时53分01秒     0       698         -     11.76      0.00  vmtoolsd
23时53分01秒     0         -       698     11.76      0.00  |__vmtoolsd
23时53分01秒     0         -       999      0.98      0.00  |__tuned
23时53分01秒     0      1080         -      0.98      0.00  sshd
23时53分01秒     0         -      1080      0.98      0.00  |__sshd
23时53分01秒     0      3068         -      0.98      0.00  kworker/u256:0
23时53分01秒     0         -      3068      0.98      0.00  |__kworker/u256:0
23时53分01秒     0     12858         -      2.94      0.00  kworker/0:1
23时53分01秒     0         -     12858      2.94      0.00  |__kworker/0:1
23时53分01秒     0     12900         -      0.98      0.00  kworker/0:0
23时53分01秒     0         -     12900      0.98      0.00  |__kworker/0:0
23时53分01秒     0         -     12905  47103.92 205392.16  |__sysbench
23时53分01秒     0         -     12906  53152.94 219105.88  |__sysbench
23时53分01秒     0         -     12907  47341.18 221238.24  |__sysbench
23时53分01秒     0         -     12908  45266.67 221124.51  |__sysbench
23时53分01秒     0         -     12909  68357.84 193363.73  |__sysbench
23时53分01秒     0         -     12910  43547.06 242544.12  |__sysbench
23时53分01秒     0         -     12911  55637.25 200499.02  |__sysbench
23时53分01秒     0         -     12912  50623.53 218949.02  |__sysbench
23时53分01秒     0         -     12913  45478.43 227288.24  |__sysbench
23时53分01秒     0         -     12914  47864.71 214200.00  |__sysbench
23时53分01秒     0     12915         -      0.98      1.96  pidstat
23时53分01秒     0         -     12915      0.98      1.96  |__pidstat

这样就能看出线程的上下文切换了。

中断次数过多的原因

中断处理发生在内核态,/proc/interrupts文件提供了一个只读的中断使用情况

# -d 参数表示高亮显示变化的区域
# watch -d "cat /proc/interrupts | sort -r -k 2"
...
            CPU0       CPU1       
 RES:    7067736    7111506   Rescheduling interrupts
 ...

观察一段时间,你可以发现,变化速度最快的是重调度中断(RES),这个中断类型表示,唤醒空闲状态的 CPU 来调度新的任务运行。这是多处理器系统(SMP)中,调度器用来分散任务到不同 CPU 的机制,通常也被称为处理器间中断(Inter-Processor Interrupts,IPI)。

每秒上下文切换多少次才算正常呢?

这个数值其实取决于系统本身的CPU性能。在我看来,如果系统的上下文切换次数比较稳定,那么从数百到一万以内,都应该算是正常的。但当上下文切换次数超过一万次,或者切换次数出现数量级的增长时,就很可能已经出现了性能问题。

这时,你还需要根据上下文切换的类型,再做具体分析。比方说:

  • 自愿上下文切换变多了,说明进程都在等待资源,有可能发生了I/O等其他问题;
  • 非自愿上下文切换变多了,说明进程都在被强制调度,也就是都在争抢CPU,说明CPU的确成了瓶颈;
  • 中断次数变多了,说明CPU被中断处理程序占用,还需要通过查看/proc/interrupts文件来分析具体的中断类型。
原文地址 https://lework.github.io/2019/06/16/linux-cpu-context-switch/

Similar Posts

Comments