python--(十五步代码学会进程)
一.进程的创建
import time
import os
#os.getpid() 获取自己进程的id号
#os.getppid() 获取自己进程的父进程id号
from multiprocessing import Process
def func():
print("aaa")
time.sleep(1)
print("子进程>>>",os.getpid())
print("该子进程的父进程>>>",os.getppid())
print(12345)
if __name__ == "__main__":
p = Process(target=func,)
p.start()
print("*" * 10)
print("主进程>>>",os.getpid())
print("父进程>>>",os.getppid())
给要执行的函数传参数
import time
from multiprocessing import Process
def func(x,y):
print(x)
time.sleep(1)
print(y)
if __name__ == "__main__":
p = Process(target=func,args=("姑娘","来玩啊"))#这是func需要接受的参数的传输方式
p.start()
print("父进程执行结束")
二.join方法
import time
from multiprocessing import Process
验证join方法
global_num = 100
def func1():
time.sleep(2)
global global_num
global_num = 0
print("子进程全局变量>>>",global_num)
if __name__ == "__main__":
p1 = Process(target=func1,)
p1.start()
print("子进程执行")
time.sleep(3)
p1.join()#阻塞住,等待你的p1子进程执行sing结束,主进程的程序才能从这里继续往下执行
print("主进程的全局变量>>>",global_num)
验证了一下并发的执行时间
import time
from multiprocessing import Process
def func1(n):
time.sleep(n)
print("func1",n)
def func2(n):
time.sleep(n)
print("func2",n)
def func3(n):
time.sleep(n)
print("func3",n)
if __name__ == "__main__":
p1 = Process(target=func1,args=(1,))
p2 = Process(target=func2,args=(2,))
p3 = Process(target=func3,args=(3,))
p1.start()
p2.start()
p3.start()
for循环在创建进程中的应用
import time
from multiprocessing import Process
def func1(n):
time.sleep(1)
print(n)
if __name__ == "__main__":
pro_list = []
for i in range(10):
p1 = Process(target=func1,args=(i,))
p1.start()
pro_list.append(p1)
# p1.join()
# for p in pro_list:
# # p.join()
p1.join()
print("主进程结束")
View Code
僵尸进程和孤儿进程
import time
import os
from multiprocessing import Process
def func1():
time.sleep(30)
print(os.getpid())
print('子进程')
if __name__ == '__main__':
p1 = Process(target=func1,)
p1.start()
# p1.join()
# time.sleep(2)
# print(p1.pid)
print('主进程的ID',os.getpid())
print('主进程结束')
View Code
三.创建进程的两种方式
import time
from multiprocessing import Process
import os
# import test01
# def func1(n):
# # time.sleep(1)
# print(n)
#
# def func2(n):
# # time.sleep(1)
# print(n)
#
# def func3(n):
# # time.sleep(1)
# print(n)
#
# def func4(n):
# # time.sleep(1)
# print(n)
#
# if __name__ == '__main__':
# p1 = Process(target=func1,args=(1,))
# p2 = Process(target=func2,args=(2,))
# p3= Process(target=func3,args=(3,))
# p4 = Process(target=func4,args=(4,))
# p1.start() # run()
# p2.start()
# p3.start()
# p4.start()
# # time.sleep(0.5)
# print('主进程结束')
# 之前同步执行的
# func1(1)
# func2(2)
# func3(3)
# func4(4)
创建进程的第一种方式:
# p1 = Process(target=func1, args=(1,))
# p1.start()
创建进行的第二种方式:
#自己定义一个类,继承Process类,必须写一个run方法,想传参数,自行写init方法,然后执行super父类的init方法
# class MyProcess(Process):
# def __init__(self,n,name):
# super().__init__()
# self.n = n
# self.name = name
#
# def run(self):
# # print(1+1)
# # print(123)
# print('子进程的进程ID',os.getpid())
# print('你看看n>>',self.n)
#
# if __name__ == '__main__':
# p1 = MyProcess(100,name='子进程1')
# p1.start() #给操作系统发送创建进程的指令,子进程创建好之后,要被执行,执行的时候就会执行run方法
# print('p1.name',p1.name)
# print('p1.pid',p1.pid)
# print('主进程结束')
View Code
四.进程的其他方法terminate is_alive.py
import time
from multiprocessing import Process
def func1():
time.sleep(2)
print()
print("子进程")
if __name__ == "__main__":
p1 = Process(target=func1,)
p1.start()
p1.terminate() #给操作系统发了一个关闭p1子进程的信号,关闭进程
time.sleep(1)
print("进程是否还活着:",p1.is_alive())#是返回True,否返回False
print(p1.pid)
print("主进程结束")
View Code
五.守护进程
#守护的子进程跟着主进程走
import time
import os
from multiprocessing import Process
def func():
time.sleep(5)
print('子进程', os.getpid())
if __name__ == '__main__':
p1 = Process(target=func)
p1.daemon = True # 设置守护进程, 当主进程结束时全部子进程立即结束
p1 .start()
# time.sleep(5.5)
print('主进程结束')
View Code
六.验证进程之间是空间隔离的
import time
from multiprocessing import Process
#进程之间是空间隔离的,不共享资源
global_num = 100
def func1():
global global_num
global_num = 0
print("子进程全局变量>>>",global_num)
if __name__ == "__main__":
p1 = Process(target=func1,)
p1.start()
time.sleep(1)
print("主进程的全局变量>>>",global_num)
View Code
七.子进程中不能使用input
from multiprocessing import Process
def func1():
s = input('>>>')
if __name__ == '__main__':
p1 = Process(target=func1,)
p1.start()
# a = input('>>>:')
print('主进程结束')
##报错
View Code
八.进程锁
ticket_lock = Lock()#创建锁 .acquire()#加锁, .release()#解锁
同步锁的作用:#加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。 # 虽然可以用文件共享数据实现进程间通信,但问题是:
# 1.效率低(共享数据基于文件,而文件是硬盘上的数据) # 2.需要自己加锁处理
import json
import time
import random
from multiprocessing import Process,Lock
def get_ticket(i,ticket_lock):
print("我们都到齐了,大家预备!!123")
time.sleep(1)
#所有代码 异步执行,到这里等待,同时再去抢下面的代码执行
ticket_lock.acquire()
#这里有个门,只有一个人能够抢到这个钥匙,加锁
with open("ticket","r") as f:
last_ticket_info = json.load(f)
#将文件数据load为字典类型的数据
last_ticket = last_ticket_info["count"]
print(last_ticket)
#查看一下余票的信息
if last_ticket > 0:
#如果看到余票大于零,说明你可以抢到票
time.sleep(random.random())
#模拟网络延迟时间
last_ticket = last_ticket - 1
last_ticket_info["count"] = last_ticket
with open("ticket","w") as f:
#将修改后的参数写回文件
json.dump(last_ticket_info,f)
print("%s号抢到了,丫nb!" % i)
else:
print("%s号傻逼,没票了,明年再来" % i)
ticket_lock.release()
if __name__ == "__main__":
ticket_lock = Lock()
#创建一个进程锁
for i in range(10):
p = Process(target=get_ticket, args=(i, ticket_lock))
p.start()
进程锁模拟购票系统
九.信号量
Semaphore()
互斥锁同时只允许一个线程更改数据,而信号量Semaphore是同时允许一定数量的线程更改数据 。
假设商场里有4个迷你唱吧,所以同时可以进去4个人,如果来了第五个人就要在外面等待,等到有人出来才能再进去玩。
实现:
信号量同步基于内部计数器,每调用一次acquire(),计数器减1;每调用一次release(),计数器加1.当计数器为0时,acquire()调用被阻塞。这是迪科斯彻(Dijkstra)信号量概念P()和V()的Python实现。信号量同步机制适用于访问像服务器这样的有限资源。
信号量与进程池的概念很像,但是要区分开,信号量涉及到加锁的概念
import time
import random
from multiprocessing import Process,Semaphore
def dbj(i,s):
s.acquire()
print('%s号男主人公来洗脚'%i)
print('-------------')
time.sleep(random.randrange(3,6))
# print(time.time())
s.release()
if __name__ == '__main__':
s = Semaphore(4) #创建一个计数器,每次acquire就减1,直到减到0,那么上面的任务只有4个在同时异步的执行,后面的进程需要等待.
for i in range(10):
p1 = Process(target=dbj,args=(i,s,))
p1.start()
View Code
十.事件
e = Event()# e.set()#将e改为True e.clear() # 将e改为False
python线程的事件用于主线程控制其他线程的执行,事件主要提供了三个方法 set、wait、clear。
事件处理的机制:全局定义了一个“Flag”,如果“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。
from multiprocessing import Process, Event
e = Event() #False True
print(e.is_set())
e.set() #将e事件的状态改为True
print("在这里等待")
e.clar() #将e事件的状态改为False
print("111")
e.wait()
print("是真的吗")
View Code
import time
from multiprocessing import Process,Event
#模拟红绿灯执行状态的函数
def traffic_lights(e):
while 1:
print("红灯啦")
time.sleep(5)
e.set() #将e改为True
print("绿灯了")
time.sleep(3)
e.clear() #将e改为False
def car(i,e):
if not e.is_set(): #新来的车看到的是红灯
print("我们在等待....")
e.wait()
print("走你")
else:
print("可以走了!!!")
if __name__ == "__main__":
e = Event()
hld = Process(target=traffic_lights, args=(e,))
hld.start()
while 1:
time.sleep(0.5)
#创建10个车
for i in range(3):
p1 = Process(target=car,args=(i,e,))
p1.start()
Even模拟红绿灯
十一.队列
# 遵循先进先出的原则 q = Queue(3) 创建3个队列 q.put()发送数据 q.get()接受数据
q = Queue([maxsize]) #创建共享的进程队列
q.get( [ block [ ,timeout ] ] ) #返回q中的一个项目。如果q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 如果设置为False,将引发Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。如果在制定的时间间隔内没有项目变为可用,将引发Queue.Empty异常。
q.get_nowait( ) #和q.get(False)方法,一样
q.put(item [, block [,timeout ] ] ) #将item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。如果设置为False,将引发Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引发Queue.Full异常。
q.qsize() #返回队列中目前项目的正确数量。此函数的结果并不可靠,因为在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引发NotImplementedError异常。
q.empty() #如果调用此方法时 q为空,返回True。如果其他进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。
.full() #如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的(参考q.empty()方法)。。
q.close() #关闭队列,防止队列中加入更多数据。调用此方法时,后台线程将继续写入那些已入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将自动调用此方法。关闭队列不会在队列使用者中生成任何类型的数据结束信号或异常。例如,如果某个使用者正被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。
q.cancel_join_thread() #不会再进程退出时自动连接后台线程。这可以防止join_thread()方法阻塞。
q.join_thread() #连接队列的后台线程。此方法用于在调用q.close()方法后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread()方法可以禁止这种行为。
队列的相关方法
from multiprocessing import Process,Queue
#先进先出
q = Queue(3)
q.put(1)
q.put(2)
# print(q.full()) #q.full()队列满了返回True,不满返回False
q.put(3)
# print('>>>>',q.full())
q.get_nowait()= () #不会阻塞住,相当于空队列
# try:
# q.get(False) # queue.Empty
# q.get_nowait() #queue.Empty
# except:
# print('队列目前是空的')
# while 1:
# try:
# q.get(False) #queue.Empty
# except:
# print('队列目前是空的')
View Code
队列实现进程的通信
import time
from multiprocessing import Process,Queue
def girl(q):
print('来自boy的信息',q.get())
print('来自校领导的凝视',q.get())
def boy(q):
q.put('约吗')
if __name__ == '__main__':
q = Queue(5)
boy_p = Process(target=boy,args=(q,))
girl_p = Process(target=girl,args=(q,))
boy_p.start()
girl_p.start()
time.sleep(1)
q.put('好好工作,别乱搞')
队列实现进程的通信
十二.生产者消费者模式
#生产者消费者模型总结
#程序中有两类角色
一类负责生产数据(生产者)
一类负责处理数据(消费者)
#引入生产者消费者模型为了解决的问题是:
平衡生产者与消费者之间的工作能力,从而提高程序整体处理数据的速度
#如何实现:
生产者<-->队列<——>消费者
#生产者消费者模型实现类程序的解耦和
import time
from multiprocessing import Process,Queue
def producer(q):
for i in range(1,11):
time.sleep(1)
print('生产了包子%s号' % i)
q.put(i)
q.put(None) #针对第三个版本的消费者,往队列里面加了一个结束信号
#版本1
# def consumer(q):
# while 1:
# time.sleep(2)
# s = q.get()
# print('消费者吃了%s包子' % s)
#版本2
# def consumer(q):
# while 1:
# time.sleep(0.5)
# try:
# s = q.get(False)
# print('消费者吃了%s包子' % s)
# except:
# break
def consumer(q):
while 1:
time.sleep(2)
s = q.get()
if s == None:
break
else:
print('消费者吃了%s包子' % s)
生产者消费者模型
生产者消费者模型
import time
from multiprocessing import Process,Queue
def producer(q):
for i in range(1,11):
time.sleep(1)
print('生产了包子%s号' % i)
q.put(i)
def consumer(q):
while 1:
time.sleep(2)
s = q.get()
if s == None:
break
else:
print('消费者吃了%s包子' % s)
if __name__ == '__main__':
#通过队列来模拟缓冲区,大小设置为20
q = Queue(20)
#生产者进程
pro_p = Process(target=producer,args=(q,))
pro_p.start()
#消费者进程
con_p = Process(target=consumer,args=(q,))
con_p.start()
pro_p.join()
q.put(None)
生产者消费者模型主进程发送结束信号
1 #生产者消费者模型
2 import time
3 from multiprocessing import Process,Queue,JoinableQueue
4
5 def producer(q):
6 for i in range(1,11):
7 time.sleep(0.5)
8 print('生产了包子%s号' % i)
9 q.put(i)
10 q.join()
11 print('在这里等你')
12 def consumer(q):
13 while 1:
14 time.sleep(1)
15 s = q.get()
16 print('消费者吃了%s包子' % s)
17 q.task_done() #给q对象发送一个任务结束的信号
18
19 if __name__ == '__main__':
20 #通过队列来模拟缓冲区,大小设置为20
21 q = JoinableQueue(20)
22 #生产者进程
23 pro_p = Process(target=producer,args=(q,))
24 pro_p.start()
25 #消费者进程
26 con_p = Process(target=consumer,args=(q,))
27 con_p.daemon = True #
28 con_p.start()
29 pro_p.join()
30 print('主进程结束')
JoinableQueue的生产者消费者模型
十三.管道
from multiprocessing import Process,Pipe
conn1,conn2 = Pipe()
进程间通信(IPC)方式二:管道(不推荐使用,了解即可),会导致数据不安全的情况出现
# 管道
from multiprocessing import Process,Pipe
import time
# conn1,conn2 = Pipe()
# conn1.send("你好")
# print(">>>>>")
# msg = conn2.recv()
# print(msg)
# def func1(conn2):
# try:
# msg = conn2.recv()
# print(">>>",msg)
# #如果管道一端关闭了,那么另外一端在接收消息的时候回报错
# except EOFError:
# print("对方管道一端已经关闭")
# conn2.close()
# if __name__ == '__main__':
# conn1,conn2 = Pipe()
# p = Process(target=func1,args=(conn2,))
# p.start()
# conn1.send("收到了吗")
def func1(conn1,conn2):
msg = conn2.recv() #阻塞
print(">>>>",msg)
if __name__ == '__main__':
conn1,conn2 = Pipe()
p = Process(target=func1, args=(conn1, conn2,))
p.start()
conn1.send("收到了吗")
conn1.close()
#conn1.recv() #OSError: handle is closed
View Code
十四.数据共享(不安全)
# 数据共享
# from multiprocessing import Process,Manager
#
# def func(m_dic):
# m_dic["辉哥"] = "辉哥大帅比"
# if __name__ == '__main__':
# m = Manager()
# m_dic = m.dict({"辉哥":"辉哥帅不帅"})
# print("主进程",m_dic)
# p = Process(target=func, args=(m_dic,))
# p.start()
# p.join()
# print("主进程2",m_dic)
# 数据共享manager不安全
# from multiprocessing import Process,Manager,Lock
# def func(m_dic, ml):
# """不加锁的情况会出现数据错乱
# m_dic["count"] -= 1
# 下面是加锁的另一种形式
# 等同 : ml.acquire()
# m_dic["count"] -= 1
# ml.release()"""
# with ml:
# m_dic["count"] -= 1
# if __name__ == '__main__':
# m = Manager()
# ml = Lock()
# m_dic = m.dict({"count":100})
# p_list = []
# for i in range(20):
# p1 = Process(target=func,args=(m_dic, ml,))
# p1.start()
# p_list.append(p1)
# [pp.join() for pp in p_list]
# print("主进程",m_dic)
View Code
十五.进程池
multiprocess.Poll模块
创建进程池的类:如果指定numprocess为3,则进程池会从无到有创建三个进程,然后自始至终使用这三个进程去执行所有任务(高级一些的进程池可以根据你的并发量,搞成动态增加或减少进程池中的进程数量的操作),不会开启其他进程,提高操作系统效率,减少空间的占用等。
进程池相关方法:
p.apply(func [, args [, kwargs]]):
在一个池工作进程中执行func(*args,**kwargs),然后返回结果。
'''需要强调的是:此操作并不会在所有池工作进程中并执行func函数。如果要通过不同参数并发地执行func函数,必须从不同线程调用p.apply()函数或者使用p.apply_async()'''
p.apply_async(func [, args [, kwargs]]):
在一个池工作进程中执行func(*args,**kwargs),然后返回结果。
'''此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,将理解传递给callback。callback禁止执行任何阻塞操作,否则将接收其他异步操作中的结果。'''
p.close():
关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成
P.jion():
等待所有工作进程退出。此方法只能在close()或teminate()之后调用
方法apply_async()和map_async()的返回值是AsyncResul的实例obj。实例具有以下方法
obj.get():返回结果,如果有必要则等待结果到达。timeout是可选的。如果在指定时间内还没有到达,将引发一场。如果远程操作中引发了异常,它将在调用此方法时再次被引发。
obj.ready():如果调用完成,返回True
obj.successful():如果调用完成且没有引发异常,返回True,如果在结果就绪之前调用此方法,引发异常
obj.wait([timeout]):等待结果变为可用。
obj.terminate():立即终止所有工作进程,同时不执行任何清理或结束任何挂起工作。如果p被垃圾回收,将自动调用此函数
import time
from multiprocessing import Process,Pool
def func(n):
print(n)
if __name__ == '__main__':
pool = Pool(4)
# pool.map(func,range(100)) #参数是可迭代的
pool.map(func,['sb',(1,2)]) #参数是可迭代的
进程池的map传参
# 进程池
import time
from multiprocessing import Process,Pool
def func(n):
for i in range(5):
time.sleep(1)
n= n + i
print(n)
if __name__ == '__main__':
#用时间验证一下传参
pool_start_time = time.time()
pool = Pool(4) #4个进程
pool.map(func,range(100))
#map(方法,可迭代对象) 映射 自带join功能,异步执行任务
pool_end_time = time.time()
pool_dif_time = pool_end_time - pool_start_time
#多进程的执行时间
# p_s_time = time.time()
# p_list = []
# for i in range(200):
# p1 = Process(target=func, args=(i,))
# p1.start()
# p_list.append(p1)
# [p.join() for p in p_list]
# p_e_time = time.time()
# p_dif_time = p_e_time - p_s_time
print('进程池的执行时间', pool_dif_time)
print('多进程的执行时间', p_dif_time)
进程池和多进程时间对比
import time
from multiprocessing import Process,Pool
def fun(i):
time.sleep(0.5)
return i**2
if __name__ == '__main__':
p = Pool(4)
for i in range(10):
res = p.apply(fun,args=(i,))
# apply 同步执行的进程方法,他会等待你的任务的返回结果
print(res)
进程池的同步方法 apply
import time
from multiprocessing import Process,Pool
def fun(i):
time.sleep(1)
print(i)
return i**2
if __name__ == '__main__':
p = Pool(4)
res_list = []
for i in range(10):
res = p.apply_async(fun,args=(i,))
# #同步执行的方法,他会等待你的任务的返回结果,
res_list.append(res)
p.close() # 不是关闭进程池,而是不允许再有其他任务来使用进程池
p.join() # 这是感知进程池中任务的方法,进程池中所有的进程随着主进程的结束而结束了,等待进程池的任务全部执行完
for e_res in res_list:
print("结果", e_res.get())
进程池的异步方法apply_async
回调函数:
需要回调函数的场景:进程池中任何一个任务一旦处理完了,就立即告知主进程:我好了额,你可以处理我的结果了。主进程则调用一个函数去处理该结果,该函数即回调函数,这是进程池特有的,普通进程没有这个机制,但是我们也可以通过进程通信来拿到返回值,进程池的这个回调也是进程通信的机制完成的。
我们可以把耗时间(阻塞)的任务放到进程池中,然后指定回调函数(主进程负责执行),这样主进程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果
import os
from multiprocessing import Pool
def func1(n):
print('func1>>',os.getpid())
# print('func1')
return n*n
def func2(nn):
print('func2>>',os.getpid())
# print('func2')
print(nn)
# import time
# time.sleep(0.5)
if __name__ == '__main__':
print('主进程:',os.getpid())
p = Pool(4)
p.apply_async(func1,args=(10,),callback=func2)
p.close()
p.join()
进程池的回调函数
进程池版的socket并发聊天代码示例:
#Pool内的进程数默认是cpu核数,假设为4(查看方法os.cpu_count())
#开启6个客户端,会发现2个客户端处于等待状态
#在每个进程内查看pid,会发现pid使用为4个,即多个客户端公用4个进程
from socket import *
from multiprocessing import Pool
import os
server=socket(AF_INET,SOCK_STREAM)
server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
server.bind(('127.0.0.1',8080))
server.listen(5)
def talk(conn):
print('进程pid: %s' %os.getpid())
while True:
try:
msg=conn.recv(1024)
if not msg:break
conn.send(msg.upper())
except Exception:
break
if __name__ == '__main__':
p=Pool(4)
while True:
conn,*_=server.accept()
p.apply_async(talk,args=(conn,))
# p.apply(talk,args=(conn,client_addr)) #同步的话,则同一时间只有一个客户端能访问
复制代码
sserver 服务端:ftp
from socket import *
client=socket(AF_INET,SOCK_STREAM)
client.connect(('127.0.0.1',8080))
while True:
msg=input('>>: ').strip()
if not msg:continue
client.send(msg.encode('utf-8'))
msg=client.recv(1024)
print(msg.decode('utf-8'))
client 用户端:ftp
进程池中爬虫示例:
from multiprocessing import Pool
import time,random
import requests
import re
def get_page(url,pattern):
response=requests.get(url)
if response.status_code == 200:
return (response.text,pattern)
def parse_page(info):
page_content,pattern=info
res=re.findall(pattern,page_content)
for item in res:
dic={
'index':item[0],
'title':item[1],
'actor':item[2].strip()[3:],
'time':item[3][5:],
'score':item[4]+item[5]
}
print(dic)
if __name__ == '__main__':
pattern1=re.compile(r'<dd>.*?board-index.*?>(\d+)<.*?title="(.*?)".*?star.*?>(.*?)<.*?releasetime.*?>(.*?)<.*?integer.*?>(.*?)<.*?fraction.*?>(.*?)<',re.S)
url_dic={
'http://maoyan.com/board/7':pattern1,
}
p=Pool()
res_l=[]
for url,pattern in url_dic.items():
res=p.apply_async(get_page,args=(url,pattern),callback=parse_page)
res_l.append(res)
for i in res_l:
i.get()
# res=requests.get('http://maoyan.com/board/7')
# print(re.findall(pattern,res.text))
爬虫示例