10. 进程和线程
进程 (Process):对于操作系统来说,一个任务就是一个进程。比如打开一个浏览器就是启动一个浏览器进程。
线程 (Thread):最小的执行单元。进程内的“子任务”。比如Word里可同时进行打字、拼写检查、打印等等。
每个进程至少要干一件事,所以 一个进程至少有一个线程。多进程和多线程的执行是一样的,由操作系统在多个进程/线程之间快速切换,让每个进程/线程都短暂的交替运行,看起来就像同时执行一样。当然真正同时执行多进程/线程需要多核CPU才能实现。
如何调度进程和线程,完全由操作系统决定,程序自己不能决定什么时候执行,执行多长时间。
Python程序同时执行多个任务的三种模式:
- 多进程模式:启动多个进程,每个进程虽然只有一个线程,但多个进程可以一块执行多个任务
- 多线程模式:启动一个进程,在一个进程内启动多个线程,这样多个线程也可以一块执行多个任务
- 多进程+多线程模式:启动多个进程,每个进程再启动多个线程,这样同时执行的任务就更多了。
- 这种模型更复杂,实际很少采用
同时执行多个任务通常各个任务之间并不是没有关联的,而是需要相互通信和协调,有时,任务1必须暂停等待任务2完成后才能继续执行,有时任务3和任务4又不能同时执行,所以多进程和多线程的程序的复杂度要远远高于单进程单线程的程序。
Python既支持多进程,又支持多线程。多进程和多线程的程序涉及到同步、数据共享的问题。
1. 多进程 multiprocessing
Unix/Linux系统提供了fork()
系统调用,调用一次返回两次(普通函数调用一次返回一次),因为操作系统自动把当前进程(称为父进程)复制了一份(称为子进程),然后分别在父进程和子进程内返回。
父进程返回子进程的ID,子进程永远返回 0。一个父进程可以fork出很多子进程,所以父进程要记下每个子进程的ID,而子进程只需调用getppid()
就可以拿到父进程的ID。
Python的os
模块封装了常见的系统调用,包括fork
(叉,分叉),在Python程序中创建子进程:
import os
print('Process (%s) start...' % os.getpid())
# 输出结果:
Process (4920) start...
# 以下只在Unix/Linux/Mac系统上可用,Windows的os模块没有fork调用
pid = os.fork()
if pid == 0:
print('我是子进程 (%s),我的父进程是: %s。' % (os.getpid(), os.getppid()))
else:
print('我 (%s) 只创建了子进程 %s。' % (os.getpid(), pid))
有fork
调用,一个进程在接到新任务时就可以复制出一个子进程来处理新任务,常见的Apache服务器就是由父进程监听端口,每当有新的http请求时,就fork出子进程来处理新的http请求。
1. multiprocessing 多进程
Python是跨平台的,对于Windows系统来说,Python提供multiprocessing
模块为跨平台版本的多进程模块。
multiprocessing
模块的Process
类代表一个进程对象。下面例子演示启动一个子进程并等待其结束:
from multiprocessing import Process
import os
def run_proc(name):
# 子进程要执行的代码
print('运行子进程: %s (%s)...' % (name, os.getpid()))
if __name__ == '__main__':
print('父进程: %s' % os.getpid())
p = Process(target=run_proc, args=('test', )) # 创建子进程
print('子进程将开始...')
p.start() # 启动子进程
p.join() # join()方法等待子进程结束后继续往下执行,通常同于进程间的同步
print('子进程结束。')
# 运行结果:
父进程: 7412
子进程将开始...
运行子进程: test (3628)...
子进程结束。
说明:
- 创建子进程时只需传入一个执行函数和函数的参数(args元组对应函数run_proc的参数),创建一个
Process
实例,用start()
方法启动,这样创建进程比fork()
还要简单。 -
join()
方法可以等待子进程结束后再继续往下运行,通常用于进程间的同步。
2. Pool 进程池
进程池可批量创建子进程,用于启动大量的子进程。
from multiprocessing import Pool
import os, time, random
def long_time_task(name):
print('Run task %s (%s)...' % (name, os.getpid()))
start = time.time()
time.sleep(random.random() * 3)
end = time.time()
print('Task %s runs %0.2f seconds.' % (name, (end - start)))
if __name__ == '__main__':
print('父进程:%s' % os.getpid())
p = Pool(4) # 4 代表CPU核数是4核
for i in range(5):
p.apply_async(long_time_task, args=(i,))
print('等待所有子进程完成...')
p.close()
p.join()
print('所有子进程完成')
# 输出结果:
父进程:9872
等待所有子进程完成...
Run task 0 (17196)...
Run task 1 (12540)...
Run task 2 (4656)...
Run task 3 (8848)...
Task 3 runs 0.19 seconds.
Run task 4 (8848)...
Task 0 runs 1.07 seconds.
Task 4 runs 0.85 seconds.
Task 2 runs 1.55 seconds.
Task 1 runs 2.20 seconds.
所有子进程完成
说明:
- 对
Pool
对象调用join()
方法会等待所有子进程执行完毕,调用join()
前必须先调用close()
,调用close()
之后就不能继续添加新的Process
了 - 输出结果的 task0~3是立即执行的,task4要等待前面某个task完成后才执行,是因为
Pool
默认大小是自己电脑CPU核数(我电脑是4核的,就最多同时执行4个进程) - 如果
Pool
设置成p = Pool(5)
,for
循环生成多个子进程,就可以同时跑5个进程 - 因为
Pool
默认大小是CPU核数,如果电脑是8核,就需要提交至少9个子进程才能看到上面的等待效果 - 查看电脑CPU核数:右击我的电脑→管理→设备管理器→处理器:有几个子项就是几核
3. 子进程
很多时候子进程并不是自身,而是一个外部进程。创建好子进程后,还需要控制子进程的输入和输出。
subprocess
模块可非常方便的启动一个子进程,然后控制其输入和输出。
demo:子进程
- 演示如何在Python代码中运行命令
nslookup www.python.org
,这和命令行直接运行效果一样:
import subprocess
print('$ nslookup www.python.org')
r = subprocess.call(['nslookup', 'www.python.org'])
print('Exit code: ', r)
# 输出结果:(不知道怎么指定编码格式)
$ nslookup www.python.org
��Ȩ��Ӧ��:
������: UnKnown
Address: 172.20.10.1
����: dualstack.python.map.fastly.net
Addresses: 2a04:4e42:12::223
151.101.88.223
Aliases: www.python.org
Exit code: 0
- 如果子进程还需要输入,可通过
communicate()
方法输入:
import subprocess
print('$ nslookup')
p = subprocess.Popen(['nslookup'], stdin=subprocess.PIPE, stdout=subprocess.PIPE, stderr=subprocess.PIPE)
output, err = p.communicate(b'set q=mx/npython.org\nexit\n')
print(output.decode('gbk')) # windows使用 gbk 编码
print('Exit code:', p.returncode)
上边的代码块相当于在命令行执行命令`nslookup`,然后手动输入:
set q=mx
python.org
exit
# 输出结果:
$ nslookup
默认服务器: UnKnown
Address: 172.20.10.1
> >
Exit code: 0
4. 进程间通信
Process
之间需要通信,操作系统提供了很多机制实现进程间的通信。Python的multiprocessing
模块包装了底层的机制,提供了Queue
、Pipes
等多种方式来交换数据。
demo:Queue
为例,在父进程中创建两个子进程,一个往Queue
里写数据,一个从Queue
里读数据
from multiprocessing import Process, Queue
import os, time, random
def write(q):
# 写数据进程执行的代码
print('进程用于写入: %s' % os.getpid())
for value in ['A', 'B', 'C']:
print('将 %s 放入Queue队列...' % value)
q.put(value)
time.sleep(random.random())
def read(q):
# 读数据进程执行的代码
print('进程用于读取: %s' % os.getpid())
while True:
value = q.get(True)
print('从Queue队列获取 %s' % value)
if __name__ == '__main__':
# 父进程创建Queue,并传给各个子进程
q = Queue()
pw = Process(target=write, args=(q,))
pr = Process(target=read, args=(q,))
# 启动子进程 pw,写入
pw.start()
# 启动子进程 pr,读取
pr.start()
# 等到pw结束
pw.join()
# pr进程里是死循环,无法等待其结束,只能强行终止
pr.terminate()
# 运行结果:
进程用于写入: 5280
将 A 放入Queue队列...
进程用于读取: 8576
从Queue队列获取 A
将 B 放入Queue队列...
从Queue队列获取 B
将 C 放入Queue队列...
从Queue队列获取 C
说明:
- 在Unit/Linux下,
multiprocessing
模块封装了fork()
调用 - Windows没有
fork()
调用,因此multiprocessing
需要“模拟”出fork()
的效果 - 父进程所有Python对象都必须通过
pickle
序列化再传入子进程去,所以如果multiprocessing
在Windows下调用失败了,要先考虑是不是pickle失败了
小结
- 在Unit/Linux下,可使用
fork()
调用实现多线程 - 要实现跨平台的多进程,可使用
multiprocessing
模块 - 进程间通信是通过
Queue
、Pipes
等实现的
2. 多线程 multithreading
1. 多线程
多任务可以由多进程完成,也可以由一个进程内的多线程完成。
线程是操作系统直接支持的执行单元。
Python的线程是真正的Posix Thread,而不是模拟出来的线程。
Python的标准库提供了两个模块,_thread
和threading
,_thread
是低级模块,threading
是高级模块,对_thread
做了封装。绝大多数下只需要使用threading
模块。
启动一个线程就是把一个函数传入并创建Thread
实例,然后调用start()
开始执行:
import time, threading
def loop():
# 新线程执行的代码
print('线程 %s 启动...' % threading.current_thread().name)
n = 0
while n < 5:
n += 1
print('线程 %s >>> %s' % (threading.current_thread().name, n))
time.sleep(1)
print('线程 %s 已结束。' % threading.current_thread().name)
print('线程 %s 启动了...' % threading.current_thread().name)
t = threading.Thread(target=loop, name='LoopThread')
t.start()
t.join()
print('线程 %s 结束了。' % threading.current_thread().name)
# 执行结果:
线程 MainThread 启动了...
线程 LoopThread 启动...
线程 LoopThread >>> 1
线程 LoopThread >>> 2
线程 LoopThread >>> 3
线程 LoopThread >>> 4
线程 LoopThread >>> 5
线程 LoopThread 已结束。
线程 MainThread 结束了。
说明:
- 任何进程默认启动一个线程,把该线程称为 主线程,主线程又可以启动新的线程
- Python的
threading
模块有个current_thread()
函数,它永远返回当前线程的实例,调用该函数的.name
属性可打印出实例名 - 主线程实例的名字叫
MainThread
,子线程的名字在创建时指定,上边例子用LoopThread
命名子线程。名字仅仅在打印时用来显示,没有其他意义,如果不起名字Python就自动给线程命名为Thread-1
,Thread-2
…
2. Lock 锁
多线程和多进程最大的不同:
- 多进程中,同一个变量,各自有一份拷贝存在于每个进程中,互不影响
- 多线程中,所有变量由所有线程共享,所以任何一个变量都可以被任何一个线程修改。因此线程之间共享数据最大的危险在于多个线程同时修改一个变量,把内容给该乱了
demo:多个线程同时操作一个变量把内容改乱
import time, threading
# 假定这是你的银行存款
balance = 0
def change_it(n):
# 先存后取,结果应该为0
global balance
balance += n
balance -= n
def run_thread(n):
# 定义循环范围,执行存取前操作函数
for i in range(2000000):
change_it(n)
# 创建t1和t2两个线程实例,n分别传5和8
t1 = threading.Thread(target=run_thread, args=(5,))
t2 = threading.Thread(target=run_thread, args=(8,))
t1.start()
t2.start()
t1.join()
t2.join()
print(balance)
# 运行后每次的结果balance都不一样
说明:
- 上边demo运行结果理论上是0,但由于线程的调度是由操作系统决定的,当t1和t2交替执行时,只要循环次数足够多,balance的结果就不一定是0了。
- 上述结果的原因是因为高级语言的一条语句在CPU执行时是若干条语句,比如
balance += n
也分两步:balance + n
存入临时变量x
,然后把临时变量x
的值赋给balance
。
确保balance
计算正确,就要给change_it()
上一把锁,其他线程要等锁释放后才能对其操作,由于锁只有一个,无论多少线程,同一时刻最多只有一个线程持有锁,所以不会造成修改的冲突。创建一个锁通过threading.Lock()
来实现:
import threading
balance = 0 # 定义银行存款变量
lock = threading.Lock() # 定义线程锁
def change_it(n):
# 先存后取的操作函数
global balance
balance += n
balance -= n
def run_thread(n):
# 调用存、取钱的操作函数
for i in range(1000000):
# 先要获取锁
lock.acquire()
try:
# 放心的修改
change_it(n)
finally:
# 改完了一定要释放锁
lock.release()
# 创建两个存/取钱操作的线程
t1 = threading.Thread(target=change_it, args=(5,))
t2 = threading.Thread(target=change_it, args=(8,))
# 启动
t1.start()
t2.start()
t1.join()
t2.join()
print(balance)
# 输出结果: 0
说明:
- 当多个线程同时执行
lock.acquire()
时,只有一个线程能成功获取锁,然后继续执行代码,其他线程就继续等待直到获得锁为止 - 获得锁的线程用完后一定要释放锁,否则那些等待锁的线程将永远等待下去,变成死线程。所以为了保险用
try...finally
来确保锁一定会被释放
锁的好处:
- 确保某段关键代码只能由一个线程从头到尾完整地执行
锁的坏处:
- 阻止了多线程并发执行,包含锁的某段代码实际上只能以单线程模式执行,效率大大降低
- 由于可以存在多个锁,不同的线程持有不同的锁,并试图获取对方持有的锁时,可能会造成死锁,导致多个线程全部挂起,既不能执行,也无法结束,只能靠操作系统强制终止
3. 多核CPU
MacOS X 的Activity Monitor,或Windows的Task Manager,都可以监控某个进程的CPU使用率。
说明:
- C、C++或Java执行死循环,可以直接把全部核心跑满,N个线程占用CPU N核的全部内存(比如同时执行了5个死循环线程,会占用CPU 500%,5核CPU全部占满的话CPU占有率是500%)
- Python执行多个死循环线程,只会占有100%的CPU内存。因为Python的线程虽然是真正的线程,但解释器执行代码时有一个
GIL锁
:Global Interpreter Lock,任何Python线程执行前,必须先获得GIL锁,然后每执行100条字节码,解释器就自动释放GIL锁,让别的线程有机会执行。GIL全局锁实际上把所有线程的执行代码都上了锁,所以多线程在Python中只能交替执行,即使100个线程跑在100核CPU上,也只能用到1个核 - 在Python中可以使用多线程,但无法有效利用多核
- Python虽然不能利用多线程实现多核任务,但可以通过多进程实现多核任务。多个Python进程有各自独立的GIL锁,互不影响
小结
- 多线程编程,模型复杂,容易发生冲突,必须用锁加以隔离,同时又要小心死锁的发生
- Python解释器由于设计时有GIL全局锁,导致了多线程无法利用多核。多线程的并发在Python中就是一个美丽的梦
3. ThreadLocal
多线程环境下,每个线程都有自己的数据,一个线程使用自己的局部变量比使用全局变量好,因为局部变量只有线程自己能看见,不会影响其他线程,而全局变量的修改必须加锁。
但局部变量也有问题,就是在函数调用时,传递起来很麻烦:
import threading
# 创建全局ThreadLocal对象
local_school = threading.local()
def process_student():
# 获取当前线程关联的student
std = local_school.student
print('Hello, %s (in %s)' % (std, threading.current_thread().name))
def process_thread(name):
# 绑定ThreadLocal的student
local_school.student = name
process_student()
t1 = threading.Thread(target=process_thread, args=('Jason',), name='Thread-A')
t2 = threading.Thread(target=process_thread, args=('Bob',), name='Thread-B')
t1.start()
t2.start()
t1.join()
t2.join()
# 运行结果:
Hello, Jason (in Thread-A)
Hello, Bob (in Thread-B)
说明:
- 全局变量
local_school
就是一个ThreadLocal
对象,每个Thread
对它都可以读写student
属性,但互不影响 - 可以把
local_school
看成全局变量,但每个属性如local_school.student
都是线程的局部变量,可以任意读写而互不干扰,也不用管理锁的问题,ThreadLocal
内部会处理 - 可理解为全局变量
local_school
是一个dict
,不但可以用local_school.student
,还可以绑定其他变量,如local_school.teacher
等等(例子在说明下方) -
ThreadLocal
最常用的地方是为每个线程绑定一个数据库连接、HTTP请求、用户身份信息等,这样一个线程的所有调用到的处理函数都可以非常方便的访问这些资源
demo:student基础上添加teacher
import threading
# 创建全局ThreadLocal对象
local_school = threading.local()
def process_student():
# 获取当前线程关联的student
std = local_school.student
print('Hello, %s (in %s)' % (std, threading.current_thread().name))
def process_teacher():
# 获取当前线程关联的teacher
tec = local_school.teacher
print('Hi, %s in %s' % (tec, threading.current_thread().name))
def process_thread(name1, name2):
# 绑定ThreadLocal的student、teacher,再添加的话就设置local_school的属性为参数的传入值,然后再运行该函数
# process_thread() 可只设置一个参数,下放实例公用一个局部变量
local_school.student = name1
process_student()
local_school.teacher = name2
process_teacher()
t1 = threading.Thread(target=process_thread, args=('stu1', 'tec1'), name='Thread-A')
t2 = threading.Thread(target=process_thread, args=('stu2', 'tec2'), name='Thread-B')
t1.start()
t2.start()
t1.join()
t2.join()
# 运行结果:
Hello, stu1 (in Thread-A)
Hi, tec1 in Thread-A
Hello, stu2 (in Thread-B)
Hi, tec2 in Thread-B
小结
- 一个
ThreadLocal
变量虽然是全局变量,但每个线程都只能读写自己线程的独立副本,互不干扰 -
ThreadLocal
解决了参数在一个线程中各个函数之间互相传递的问题
4. 进程 vs 线程
多进程和多线程,是实现多任务最常用的两种方式。
实现多任务,通常会涉及Master-Worker模式,Master负责分配任务,Worker负责执行任务。因此,多任务环境下,通常是一个Master多个Worker。
如果用多进程实现Master-Worker,主进程就是Master,其他进程就是Worker;
如果用多线程实现Master-Worker,主线程就是Master,其他线程就是Worker。
多进程模式
- 最大的优点:稳定性高,因为一个子进程崩溃了,不会影响主进程和其他子进程。当然主进程挂了所有进程就全挂了,但是Master进程只负责分配任务,挂掉概率低。著名的Apache最早就是采用多进程模式
- 缺点:创建进程的代价大,在Unit/Linux系统下,用
fork()
调用还行,在Windows下创建进程开销巨大。另外,操作系统能同时运行的进程数也是有限的,在内存和CPU的限制下,如果有几千个进程同时运行,操作系统连调度都会成问题
多线程模式
- 优点:通常比多进程快一点,但也快不到哪儿去
- 致命缺点:任何一个线程挂掉都可能直接造成整个进程崩溃。因为所有线程共享进程的内存。在Windows上,如果一个线程执行的代码出现问题,经常可以看到这样的提示:“该程序执行了非法操作,即将关闭”,其实往往是某个线程出现了问题,但是操作系统会强制结束整个进程
小结
- 在Windows下,多线程的效率比多进程要高,所以微软的IIS服务器默认采用多线程模式。
- 由于多线程存在稳定性的问题,IIS的稳定性不如Apache。为了缓解这个问题,IIS和Apache现在又有多进程+多线程的混合模式,把问题越搞越复杂。
线程切换
无论是多进程还是多线程,只要数量一多,效率肯定上不去。
操作系统在切换进程或线程时需要先保存当前执行的现场环境(CPU寄存器状态、内存页等),然后把新任务的执行环境准备好(恢复上次的寄存器状态,切换内存页等),才能开始执行。这个切换过程虽然很快,但也需好费时间。如果有几千个任务同时执行,操作系统可能就主要忙着切换任务,根本没多少时间去执行任务,这种情况最常见的是硬盘狂响,点窗口无反应,系统处于假死状态。
所以,多任务一旦多到一个限度,就会消耗掉系统所有资源,结果效率急剧下降,所有任务都做不好。
计算密集型 vs IO密集型
是否采用多任务的第二个考虑是 任务的类型,可把任务分为计算密集型和IO密集型。
计算密集型任务:
- 特点:要进行大量的计算,消耗CPU资源
- 比如计算圆周率、对视频进行高清解码等等,全靠CPU的运算能力
- 计算密集型任务虽然也可以用多任务完成,但任务越多,花在任务切换的时间就越多,CPU执行任务的效率就降低,所以要最高效的利用CPU,计算密集型任务同时进行的数量应当等于CPU的核心数
- 由于只要消耗CPU资源,因此代码运行效率至关重要,Python这样的脚本语言运行效率很低,完全不适合计算密集型任务。对于计算密集型任务,最好用C语言编写
IO密集型:
- 涉及到网络、磁盘IO的任务都是IO密集型任务。常见的大部分任务都是IO密集型任务,比如web应用
- 特点:CPU消耗很少,任务的大部分时间都在等待IO操作完成(因为IO的速度远远低于CPU核内存的速度)
- 任务越多,CPU效率越高,但也有一个限度
- 任务执行期间,99%的时间都花在IO上,花在CPU上的时间很少。因此,用运行速度极快的C语言替换用Python这样运行速度极低的脚本语言,完全无法提升运行效率。
- 最适合的语言就是开发效率最高(代码量最少)的语言,脚本语言是首选,C语言最差
异步IO
CPU和IO之间有巨大的速度差异,一个任务在执行过程中大部分时间都在等待IO操作,单进程单线程模式会导致别的任务无法并行执行,因此,需要多进程模型或多线程模型来支持多任务并发执行。
操作系统对IO操作改进的最大特点是支持异步IO。充分利用操作系统提供的异步IO支持可以用单进程单线程模型来执行多任务,这种全新的模型称为事件驱动模型。Nginx是支持异步IO的web服务器,它在单核CPU上采用单进程模型就可以高效支持多任务。
在多核CPU上可以执行多个进程(数量与CPU核心数相同),充分利用多核CPU。
Python单线程的异步编程模型称为 协程,有协程的支持就可以基于事件驱动编写高效的多任务程序。
5. 分布式进程
Thread
和Process
,优选 Process
(进程),因为Process
更稳定,可分布到多台机器上,而Thread
最多只能分布到同一台机器的多个CPU上。
Python的multiprocessing
模块支持多进程,其中managers
子模块还支持把多进程分布到多台机器上,一个服务进程可以作为调度者,将任务分布到其他多个进程中,依靠网络通信,很容易编写分布式多进程程序。
demo:如果已经有一个通过Queue
通信的多进程程序在同一台机器上运行,现在由于处理任务的进程任务繁重,想把发送任务的进程和处理任务的进程分布到两台机器上,如何用分布式进程实现?
- 原有的
Queue
可以继续使用,但通过managers
模块把Queue
通过网络暴露出去,就可以让其他机器的进程访问Queue
了 - 先看服务进程,它负责启动
Queue
,把Queue
注册到网络上,然后往Queue
里面写入任务
# task_master.py
import queue
import random
from multiprocessing.managers import BaseManager
task_queue = queue.Queue()
result_queue = queue.Queue()
def return_task_queue():
global task_queue
return task_queue
def return_result_queue():
global result_queue
return result_queue
class QueueManager(BaseManager):
pass
if __name__ == '__main__':
QueueManager.register('get_task_queue', callable=return_task_queue)
QueueManager.register('get_result_queue', callable=return_result_queue)
manager = QueueManager(address=('127.0.0.1', 5000), authkey=b'abc')
manager.start()
task = manager.get_task_queue()
result = manager.get_result_queue()
for i in range(10):
n = random.randint(0, 10000)
print("Put task %d" % n)
task.put(n)
print('尝试获取结果...')
for i in range(10):
r = result.get(timeout=10)
print('结果:%s' % r)
manager.shutdown()
print('master exit')
- 注意:当在一台机器上写多进程程序时,创建的
Queue
可直接拿来用,但在分布式多进程环境下,添加任务到Queue
不可以直接对原始的task_queue
进行操作,那样就绕过了QueueManager
的封装,必须通过manager.get_task_queue()
获得的Queue
接口添加。 - 然后在另一台机器上启动任务进程(本机上启动也可以)
import time, queue
from multiprocessing.managers import BaseManager
# 创建类似的QueueManager
class QueueManager(BaseManager):
pass
# 由于这个QueueManager只从网络上获取Queue,所以注册时只提供名字
QueueManager.register('get_task_queue')
QueueManager.register('get_result_queue')
# 连接到服务器,也就是运行task_master.py的机器
server_addr = '127.0.0.1'
print('连接到主机 %s ...' % server_addr)
# 端口和验证码注意保持与task_master.py设置的完全一致
m = QueueManager(address=('127.0.0.1', 5000), authkey=b'abc')
# 从网络连接
m.connect()
# 获取Queue的对象
task = m.get_task_queue()
result = m.get_result_queue()
# 从task队列领任务,并把结果写入result队列
for i in range(10):
try:
n = task.get(timeout=1)
print('run task %d * %d...' % (n, n))
r = '%d * %d = %d' % (n, n, n * n)
time.sleep(1)
result.put(r)
except queue.Empty:
print('task queue is empty.')
# 处理结束
print('worker exit')
- 任务进程要通过网络连接到服务进程,所以要制定服务进程的IP。
- 现在试下分布式进程的工作效果:先启动
task_master.py
服务进程
Put task 8854
Put task 8796
Put task 7237
Put task 4650
Put task 5334
Put task 2862
Put task 9278
Put task 3274
Put task 877
Put task 6436
尝试获取结果...
- task_master.py进程发送完任务后,开始等待result队列的结果。现在启动task_worker.py进程:
连接到主机 127.0.0.1 ...
run task 7957 * 7957...
run task 138 * 138...
run task 7560 * 7560...
run task 1052 * 1052...
run task 8938 * 8938...
run task 4068 * 4068...
run task 4488 * 4488...
run task 820 * 820...
run task 3915 * 3915...
run task 1995 * 1995...
worker exit
- task_worker.py进程结束,在task_master.py进程中会继续打印出结果:
结果:7957 * 7957 = 63313849
结果:138 * 138 = 19044
结果:7560 * 7560 = 57153600
结果:1052 * 1052 = 1106704
结果:8938 * 8938 = 79887844
结果:4068 * 4068 = 16548624
结果:4488 * 4488 = 20142144
结果:820 * 820 = 672400
结果:3915 * 3915 = 15327225
结果:1995 * 1995 = 3980025
master exit
这就是一个简单但真正的分布式计算,把代码稍加改造,启动多个worker
,就可以把任务分布到几台甚至几十台机器上,比如把计算n*n
的代码换成发送邮件,就实现了邮件队列的异步发送。
Queue
对象存储在哪?注意到task_worker.py
中根本没有创建Queue
的代码,所以,Queue
对象存储在task_master.py
进程中:
Queue
之所以能通过网络访问,就是通过QueueManager
实现的。由于QueueManager
管理的不止一个Queue
,所以,要给每个Queue
的网络调用接口起个名字,比如get_task_queue
。
authkey
是为了保证两台机器正常通信,不被其他机器恶意干扰。如果task_worker.py
的authkey
和task_master.py
的authkey
不一致,肯定连接不上。
小结
- Python的分布式进程接口简单,封装良好,适合需要把繁重任务分布到多台机器的环境下。
- 注意Queue的作用是用来传递任务和接收结果,每个任务的描述数据量要尽量小。比如发送一个处理日志文件的任务,就不要发送几百兆的日志文件本身,而是发送日志文件存放的完整路径,由Worker进程再去共享的磁盘上读取文件。