多进程与多线程:

  我们常见的 Linux、Windows、Mac OS 操作系统,都是支持多进程的多核操作系统。所谓多进程,就是系统可以同时运行多个任务。例如我们的电脑上运行着 QQ、浏览器、音乐播放器、影音播放器等。在操作系统中,每个任务就是一个进程。每个进程至少做一件事,多数进程会做很多事,例如影音播放器,要播放画面,同时要播放声音,在一个进程中,就有很多线程,每个线程做一件事,在一个进程中有多个线程运行就是多线程。可以在实验环境终端执行 ps -ef 命令来查看当前系统中正在运行的进程。

  计算机的两大核心为运算器和存储器。常说的手机配置四核、八核,指的就是 CPU 的数量,它决定了手机的运算能力;128G、256G 超大存储空间,指的就是手机存储数据的能力。当我们运行一个程序来计算 3 + 5,计算机操作系统会启动一个进程,并要求运算器派过来一个 CPU 来完成任务;当我们运行一个程序来打开文件,操作系统会启动存储器的功能将硬盘中的文件数据导入到内存中。

  一个 CPU 在某一时刻只能做一项任务,即在一个进程(或线程)中工作,当它闲置时,会被系统派到其它进程中。单核计算机也可以实现多进程,原理是第 1 秒的时间段内运行 A 进程,其它进程等待:第 2 秒的时间段内运行 B 进程,其它进程等待。。。第 5 秒的时间段内又运行 A 进程,往复循环。当然实际上 CPU 在各个进程间的切换是极快的,在毫秒(千分之一)、微秒(百万分之一)级,以至于我们看起来这些程序就像在同时运行。现代的计算机都是多核配置,四核八核等,但计算机启动的瞬间,往往就有几十上百个进程在运行了,所以进程切换是一定会发生的,CPU 在忙不迭停地到处赶场。注意,什么时候进行进程 、线程切换是由操作系统决定的,无法人为干预。

线程安全:

  我们都知道在 MySQL 中有 “原子操作” 的概念,打个比方:A向B转账 100 块钱,在 MySQL 中需要两步操作:A账户减少 100 元,B账户增加 100 元。如果第一步操作完成后,意外情况导致第二步没有做,A肯定不答应,这是不允许发生的。如何保证其不发生呢?将两步操作设计成一个事务,事务里可以有多个步骤,其中任何一步出现问题,事务都将失败,前面完成的步骤全部回滚,就像什么事都没发生。这种操作就叫做原子操作,这种特性就叫做原子性。

  在 Python 多线程中,变量是共享的,这也是相较多进程的一个优点,线程占用资源要少得多,但也导致多个 CPU 同时操作多个线程时会引起结果无法预测的问题,也就是说 Python 的线程不安全。

GIL 全局解释器锁:

  如何解决线程安全问题?CPython 解释器使用了加锁的方法。每个进程有一把锁,启动线程先加锁,结束线程释放锁。打个比方,进程是一个厂房,厂房大门是开着的,门内有锁,工人进入大门后可以在内部上锁。厂房里面有 10 个车间对应 10 个线程,每个 CPU 就是一个工人。GIL(Global Interpreter Lock)全局锁就相当于厂房规定:工人要到车间工作,从厂房大门进去后要在里面反锁,完成工作后开锁出门,下一个工人再进门上锁。也就是说,任意时刻厂房里只能有一个工人,这样就保证了工作的安全性,这就是 GIL 的原理。当然了,GIL 的存在有很多其它益处,包括简化 CPython 解释器和大量扩展的实现。

  根据上面的例子可以看出 GIL 实现了线程操作的安全性,但多线程的效率被大打折扣,一个工厂里只能有一个工人干活,很难想象。这也是 David Beazley(《Python 参考手册》和《Python Cookbook》的作者)说 “Python 线程毫无用处” 的原因。注意,GIL 不是语言特性,而是解释器的设计特点,有些 Python 解释器例如 JPython 就没有 GIL ,除了 Python 其它语言也有 GIL 设计,例如 Ruby 。

多线程提高工作效率:

  实际情况并非上面讲得那么惨,Python 多线程可以成倍提高程序的运行速度,而且在多数情况下都是有效的。接着上面的例子说,一个工厂里同一时刻只能有一个工人在工作,如果这个工厂里各个车间的自动化程度极高且任务耦合度极低,工人进去只是按几下按钮,就可以等待机器完成其余工作,那情况就不一样了,这种场景下一个工人可以管理好多个车间,而且大多数时间都是等,甚至还能抽空打打羽毛球看场电影。

  比如爬虫程序爬取页面数据这个场景中,CPU 做的事就是发起页面请求和处理响应数据,这两步是极快的,中间网络传输数据的过程是耗时且不占用 CPU 的。一个工人可以在吃完早饭后一分钟内快速到 1000 个车间按下发起请求的按钮,吃完午饭睡一觉,日薄西山时差不多收到网络传回的数据,又用一分钟处理数据,整个程序完成。

  上面的场景中,CPU 再多也没有用处,一个 CPU 抽空就能完成整个任务了,毕竟程序中需要 CPU 做的事并不多。这就涉及到了复杂程序的分类:CPU 密集型和 IO 密集型。爬虫程序就是 IO 密集型程序。CPU 密集型程序全是手工操作,工人一刻也不能停歇,这种情况下 Python 多线程就真可以说是毫无用处了。

import threading
import time

def crawl_url():        # 假设这是爬虫程序,爬取一个 URL
    time.sleep(0.02)    # 模拟 IO 操作

def main1():            # 单线程程序
    for i in range(100):
        crawl_url()

def main2():            # 多线程程序
    thread_list = []
    for i in range(100):
        t = threading.Thread(target=crawl_url)
        t.start()
        thread_list.append(t)
    for t in thread_list:
        t.join()

if __name__ == '__main__':
    start = time.time()
    main1()
    end = time.time()
    print('单线程耗时:{:.4f}s'.format(end - start))
    start = time.time()
    main2()
    end = time.time()
    print('多线程耗时:{:.4f}s'.format(end - start))

运行结果:

单线程耗时:2.2983
多线程耗时:0.0340

理论上,main1 的耗时是 main2 的 100 倍,考虑到 main2 创建多线程、线程切换的开销,这个结果也是相当可观的,IO 操作耗时越长,多线程的威力越大。

异步和同步,阻塞和非阻塞:

  上文的模拟爬虫示例代码中,main1 中的 for 循环运行 100 次爬取网页的操作,前一个完成后才能运行下一个,这就是同步的概念,在 crawl_url 函数内部的 IO 操作为阻塞操作,线程无法向下执行。

  main2 中的第一个 for 循环,创建 100 个线程并启动,这步操作是非阻塞的,不会等一个线程运行完成才创建下一个线程,它会一气儿创建并启动 100 个线程;第二个 for 循环将主线程挂起,直到全部子线程完成,此时的主线程就是阻塞的。这种程序运行方式叫做异步,CPU 在遇到 IO 阻塞时不会站在那儿傻等,而是被操作系统派往其它线程中看看有什么事可做。

  所谓的异步,就是 CPU 在当前线程阻塞时可以去其它线程中工作,不管怎么设计,在一个线程内部代码都是顺序执行的,遇到 IO 都得阻塞,所谓的非阻塞,是遇到当前线程阻塞时,CPU 去其它线程工作。

协程初步:

  在多线程程序中,线程切换由操作系统决定,无法人为干预。上文的模拟爬虫示例代码中各个线程间无关联,没有先后顺序,不涉及互相引用,耦合性为零,这种场景使用多线程是很适合的。协程是在线程的基础上编写由程序员决定代码执行顺序、可以互相影响的高耦合度代码的一种高级程序设计模式。

  上文说到 “不论如何设计,在一个线程内部,代码都是顺序执行的,遇到 IO 都得阻塞” ,直到出现了协程,这句话变成了伪命题。一个线程内部可以有多个协程,相当于一个车间内部有多个子任务,一个协程遇到 IO 阻塞,CPU 会自动去另一个协程中工作,而且去哪里工作由程序自己说了算,此外连创建线程和线程切换的开销都省了,这是一个多么大的比较优势!

生成器原理:

生成器可谓协程的立身之基,所以先谈生成器。这就要提到经典的斐波那契数列:

def fibonacci(n):
      a, b = 0, 1
      while b < n:
          a, b = b, a + b
          yield a
f = fibonacci(100)
for i in f:
    print(i)

  函数体内部有 yield 关键字的都是生成器函数,fibonacci 是生成器函数。yield 关键字只能出现在函数中,生成器函数的执行结果是生成器,注意这里所讲的 “执行结果” 不是函数的 return 值。生成器终止时必定抛出 StopIteration 异常,for 循环可以捕获此异常,异常的 value 属性值为生成器函数的 return 值。生成器还可以使用 next 方法迭代。生成器会在 yield 语句处暂停,这是至关重要的,未来协程中的 IO 阻塞就出现在这里。

生成器进化成协程:

  生成器是由迭代器进化而来,所以生成器对象有 __iter__ 和 __next__ 方法,可以使用 for 循环获得值,注意这里所说的 “获得值” 指的是下文代码块里 yield 语句中 yield 关键字后面的 i 。这是在 Python 2.5 时出现的特性,在 Python 3.3 中出现 yield from 语法之前,生成器没有太大用途。但此时 yield 关键字还是实现了一些特性,且至关重要,就是生成器对象有 send 、throw 和 close 方法。这三个方法的作用分别是发送数据给生成器并赋值给 yield 语句、向生成器中抛入异常由生成器内部处理、终止生成器。这三个方法使得生成器进化成协程。

生成器(或协程)有四种存在状态:

  • GEN_CREATED 创建完成,等待执行
  • GEN_RUNNING 解释器正在执行(这个状态在下面的示例程序中无法看到)
  • GEN_SUSPENDED 在 yield 表达式处暂停
  • GEN_CLOSE 执行结束,生成器停止

可以使用 inspect.getgeneratorstate 方法查看协程的当前状态,举例如下:

import inspect
def generator():
    i = '激活生成器'
    while True:
          try:
              value = yield i
          except ValueError:
              print('OVER')
          i = value
g = generator()
inspect.getgeneratorstate(g)
'GEN_CREATED'
next(g)
'激活生成器'
inspect.getgeneratorstate(g)
'GEN_SUSPENDED'
g.send('Hello Shiyanlou')
'Hello Shiyanlou'
g.throw(ValueError)
OVER
'Hello Shiyanlou'
g.close()
inspect.getgeneratorstate(g)
'GEN_CLOSED'

代码说明如下:

1、创建生成器

2、查看生成器状态

3、这步操作叫做预激生成器(或协程),这是必须要做的。在生成器创建完成后,需要将其第一次运行到 yield 语句处暂停

4、暂停状态的生成器可以使用 send 方法发送数据,此方法的参数就是 yield 表达式的值,也就是 yield 表达式等号前面的 value 变量的值变成 'Hello Shiyanlou',继续向下执行完一次 while 循环,变量 i 被赋值,继续运行下一次循环,yield 表达式弹出变量 i

5、向生成器抛入异常,异常会被 try except 捕获,作进一步处理

6、close 方法终止生成器,异常不会被抛出

因为生成器的调用方也就是程序员自己可以控制生成器的启动、暂停、终止,而且可以向生成器内部传入数据,所以这种生成器又叫做协程,generator 函数既可以叫做生成器函数,也可以叫协程函数,这是生成器向协程的过渡阶段。

预激协程:

  预先激活生成器(或协程)可以使用 next 方法,也可以使用生成器的 send 方法发送 None 值:g.send(None) 。为简化协程的使用,我们可以尝试编写一个装饰器来预激协程,这样创建的协程会立即进入 GEN_SUSPENDED 状态,可以直接使用 send 方法:

In [212]: from functools import wraps

In [213]: def coroutine(func):  # 预激协程装饰器
     ...:     @wraps(func)      # wraps 装饰器保证 func 函数的签名不被修改
     ...:     def wrapper(*args, **kw):
     ...:         g = func(*args, **kw)
     ...:         next(g)       # 预激协程
     ...:         return g      # 返回激活后的协程
     ...:     return wrapper
     ...:

In [214]: @coroutine            # 使用装饰器重新创建协程函数
     ...: def generator():
     ...:     i = '激活生成器'
     ...:     while True:
     ...:         try:
     ...:             value = yield i
     ...:         except ValueError:
     ...:             print('OVER')
     ...:         i = value
     ...:

In [215]: g = generator()

In [216]: inspect.getgeneratorstate(g)
Out[216]: 'GEN_SUSPENDED'

协程的返回值:

  前文 “生成器原理” 这一小节中提到了 StopIteration 异常的 value 属性值为生成器(协程)函数的 return 值,我们可以在使用协程时捕获异常并得到这个值。举例如下:

In [217]: @coroutine
     ...: def generator():
     ...:     l = []                    # 1
     ...:     while True:
     ...:         value = yield         # 2
     ...:         if value == 'CLOSE':  # 3
     ...:             break
     ...:         l.append(value)       # 4
     ...:     return l                  # 5
     ...:

In [218]: g = generator()

In [219]: g.send('hello')

In [220]: g.send('shiyanlou')

In [221]: g.send('CLOSE')
---------------------------------------------------------------------------
StopIteration                             Traceback (most recent call last)
<ipython-input-221-863c90462435> in <module>
----> 1 g.send('CLOSE')

StopIteration: ['hello', 'shiyanlou']

代码说明如下:

1、创建列表,保存协程 send 方法每次发送的参数

2、yield 表达式不弹出值,仅作暂停之用

3、如果 send 方法的参数为 CLOSE ,break 终止 while 循环,停止生成器,抛出 StopIteration 异常

4、将 value 添加到列表

5、设置协程函数的返回值,该值在协程终止抛出 StopIteration 异常时赋值给 value 属性

可以这样捕获异常:

In [231]: g = generator()

In [232]: for i in ('hello', 'shiyanlou', 'CLOSE'):
     ...:     try:
     ...:         g.send(i)
     ...:     except StopIteration as e:
     ...:         value = e.value  # e 的 value 属性值就是协程函数的 return 值
     ...:         print('END')
     ...:
END

In [233]: value
Out[233]: ['hello', 'shiyanlou']

yield from:

在 Python 3.3 中新增了 yield from 语法,这是全新的语言结构,是 yield 的升级版。相比 yield ,该语法有两大优势,我们来举例说明它的用法。

(一)避免嵌套循环

我们知道 Python 内置模块 itertools 是十分强大的,里面有很多实用的方法,其中之一是 chain 方法,它可以接受任意数量的可迭代对象作为参数,返回一个包含所有参数中的元素的迭代器:

In [8]: from itertools import chain

In [9]: c = chain({'one', 'two'}, list('ace'))

In [10]: c 
Out[10]: <itertools.chain at 0x1066020f0>

In [11]: for i in c:
    ...:     print(i)
    ...:
one
two
a
c
e

使用 yield 关键字实现 chain 方法:

In [16]: def chain(*args):
    ...:     for iter_obj in args:
    ...:         for i in iter_obj:
    ...:             yield i
    ...:

In [17]: c = chain({'one', 'two'}, list('ace'))

In [18]: c
Out[18]: <generator object chain at 0x1066ff570>

In [19]: for i in c:
    ...:     print(i)
    ...:
one
two
a
c
e

这样就实现了类似 itertools 中的 chain 方法,注意这里 chain 函数的返回值是生成器,现在我们使用 Python 3.3 新增的 yield from 语法优化上文的 chain 函数:

In [20]: def chain(*args):
    ...:     for iter_obj in args:
    ...:         yield from iter_obj
    ...:

In [21]: c = chain({'one', 'two'}, list('ace'))

In [22]: c
Out[22]: <generator object chain at 0x106a95b88>

In [23]: for i in c:
    ...:     print(i)
    ...:
one
two
a
c
e

可以看到 yield from 语句可以替代 for 循环,避免了嵌套循环。同 yield 一样,yield from 语句也只能出现在函数体内部,有 yield from 语句的函数叫做协程函数或生成器函数。

yield from 后面接收一个可迭代对象,例如上面代码中的 iter_obj 变量,在协程中,可迭代对象往往是协程对象,这样就形成了嵌套协程。

转移控制权:

  转移控制权是 yield from 语法的核心功能,也是从生成器进化到协程的最重要一步。

  首先安装伪造数据的库 faker ,在终端执行 sudo pip3 install faker 即可。

下面举例说明转移控制权的功能,将以下代码写入 transfer_control.py 文件中,这是一个可以将列表进行排序的程序。对代码的注释写入每行代码前面或后面,方便阅读。