一、线程 

上一篇已经大致介绍了什么是线程以及线程的作用、多线程和进程的关系大致的总结如下:

  • 线程是最小的执行单元,进程由至少一个线程组成;
  • 进程和线程的调度,完全有操作系统决定,程序不能决定什么时候执行和执行多久。
  •  一个应用程序可以有多进程、多线程
  •  默认是单进程、单线程
  •  单进程,多线程,在Python中不会性能提升,在Java和C#中可以提升
  • 多线程: IO操作密集,一般不会用到CPU,效率提升是可以的
  • 多进程:计算型操作密集, 需要占用CPU,因此性能不会有提升

概念说了很多下面来点实际,代码!

创建线程:

import threading
def f1(arg):
    print(arg)
t=threading.Thread(target=f1,args=(123,))
t.start()

简单吧这就是创建一个线程,也可以继承线程,自己创建

class MyThread(threading.Thread):   #自己创建一个类,继承threading.Thread)
    def __init__(self,func,args):   
        self.func=func
        self.args=args
        super(MyThread,self).__init__()   #执行Mythread父类的构造函数
    
    def run(self):   #然后自己定义一个run方法
        self.func(self.args)    #执行f2函数

def f2(arg):
    print(arg)

obj=MyThread(f2,123)   #传参数进去
obj.start()           #开始线程

threading常用方法:

threading.current_thread()   返回当前的线程变量。
threading.enumerate()         返回一个包含正在运行的线程的列表,正在运行指线程启动后、结束前,不包括启动前和终止后的线程。
threading.active_count()      返回正在运行的线程数量,与len(threading.enumerate())一样。

Thread

Thread是线程类,与Java类似,有两种使用方法,直接传入要运行的方法或从Thread继承并覆盖 run()。

PS: Thread中的run()方法,就是CPU来调度的时候执行的自动代用run方法

Thread构造方法(__init__):

  group=None, target=None, name=None, args=(), kwargs=None, *, daemon=None

  • group: 线程组
  • target: 要执行的方法
  • name: 线程名
  • args/kwargs: 要传入的参数

常用方法:

  • is_alive():  返回线程是否在运行(启动前、终止前) 。
  • getName(): 获取当前线程名
  • setName():   设置线程名
  • isDaemon():  获取线程是否是守护线程。
  • setDaemon(): 设置是否是守护进程
  • 如果是后台线程,主线程执行过程中,后台线程也在运行,主线程执行完毕后,后台线程不论成功与否,全部都停止。
  • 如果是前台线程,主线程执行过程中,前台线程也在进行,主线程执行完毕后,等待前台线程夜之星完成后,程序停止
  • start()  :  启动线程
  • join([timeout]):   阻塞当前上下文,直到调用此方法的线程终止或到达指定的timeout值
import threading
import time
def f1(arg):
    time.sleep(5)    
    print(arg)
t = threading.Thread(target=f1,args=(123,))
t.setDaemon(True)   #True 表示主线程不等此子线程,默认值为False,也就是主线程等待子线程
t.start()  #不代表当前线程会被立即执行
t.join(6)  #表示主线程到此,等待。。
            # 参数6,表示主线程在此最多等待6秒

print(33)

 

 

线程锁

lock

多线程的优势在于可以同时运行多个任务,而多个线程之间用到的数据可以共享进程的,效率很高(但在Python中多线程尽量应用在IO密集型的程序中)。正因为这样,所以存在数据不同步的问题.

为了避免资源争夺,所以引入了锁的概念。每当一个线程要访问共享数据时,必须先加把锁,而后在处理,处理完成后,解锁,让其他线程再来处理。

由于线程之间是进行随机调度的,每个线程可能只执行n条之后,当多个线程同时修改同一条数据时可能会出现脏数据,所以线程锁就应用而生了。

实例方法:

  • acquire([timeout])  上锁, 使线程进入同步阻塞状态,尝试获得锁定。
  • release()    释放锁,使用前线程必须已经获得锁定,否则抛出异常。
NUM = 10
def f1(args):
    global NUM
    NUM -= 1
    print(NUM)

for i in range(10):
    t = threading.Thread(target=f1,args=(i,))
    t.start()

#显示结果有可能会是 10个 0   其实我们想要的结果是 9 8 7......0   这就是产生了垃圾数据

那么我们来看看 上了锁之后会是神马效果:

NUM=10
def f1(l):
    global NUM
    l.acquire()    #上锁
    NUM-=1
    time.sleep(1)
    print(NUM)
    l.release()    #解锁

lock=threading.Lock()
for i in range(10):
    t=threading.Thread(target=f1,args=(lock,))
    t.start()

#这样就能我们想要的结果了

RLOCK

RLock() 是一个可以被同一个线程请求多次的同步指令。Rlock使用了“拥有的线程" 和 "递归等级"的概念,处于锁定状态时,RLock被某个线程拥有。拥有RLock的线程可以再次调用acquire() , 释放锁时需要调用release()相同次数。说白了就是LOCK只能锁住一次,RLOCK可多次锁定递归

可以认为RLock包含一个锁定池和一个初始值为0的计数器,每次成功调用acquire()和release(),计数器将+1/-1,为0时处于未锁定状态。

NUM=10

def func(l):

    global NUM
    l.acquire()  #上锁
    NUM-=1
    l.acquire()  #上锁
    time.sleep(1)
    l.release()  #解锁
    print(NUM)

    l.release()  #解锁
# lock=threading.Lock() #只能锁一次

lock=threading.RLock() #锁多次
for i in range(10):
    t=threading.Thread(target=func,args=(lock,))
    t.start()

Semaphore(信号量)

Lock和Rlock(互斥锁),发现同时只能允许一个线程来更改数据,执行顺序不还是串行的么,所谓的多线程就没有神马卵用了。

而Semaphore是同时允许一定数量的线程来更改数据。可以理解成互斥锁的加强版,一个锁可以控制多个thread的访问,Lock的话,只能让一个线程来访问,Semaphore可以控制数量。

#指定放行几个
NUM=10

def func(l,i):

    global NUM
    l.acquire()  #上锁
    NUM-=1
    time.sleep(2)
    print(NUM,i)
    l.release()  #解锁


lock=threading.BoundedSemaphore(5)  #锁5个线程
for i in range(15):
    t=threading.Thread(target=func,args=(lock,i))
    t.start()

#显示的结果
5 0
5 3
5 2
5 1
1 4
0 5
0 8
0 6
0 7
-4 9
-5 13
-5 10
-5 11
-5 12
-5 14


Event(事件)

event线程间通信的方式,一个线程可以发送信号,其他的线程接受到信号后执行操作。相当于设置一个红绿灯

主要方法:

  • set   将Flag设置为True
  • wait  阻塞当前线程,直到event的内部标志位被设置为True或者Timeout超时。如果内部标志位为True则wait()函数理解返回。
  • clear  将Flag重新设置为False
  • is_set  返回标志位当前状态

事件处理机制: 全局定义了一个”Flag“, 如果值为False,那么当程序执行event.wait方法时就会阻塞,如果”Flag“值为True,那么event.wait方法时便不再阻塞,类似于信号灯,False相当于红灯,True相当于绿灯,绿灯时等红灯一次性通过。

def func(i,e):
    print(i)
    e.wait()   #检测是什么灯,如果是红灯 默认红灯停; 绿灯,执行下面的程序
    print(i+100)
even=threading.Event() 
for i in range(10):
    t=threading.Thread(target=func,args=(i,even))
    t.start()
even.clear()   #设置红灯(默认就是红灯)
inp=input(">>>")
if inp =="1":
    even.set()    #设置成绿锁

 

Condition(条件)

  使得线程等待,只有满足某条件时,才释放n个线程,hreading.Condition在内部维护了一个锁对象(默认是RLock),可以在创建Condition对象的时候把锁对象作为参数传入,Condition也提供了acquire和release方法。

import threading

def func(i,con):
    print(i)
    con.acquire()     #程序运行到这里就会卡主
    con.wait()      
    print(i+100)
    con.release()

c=threading.Condition()
for i in range(10):
    t=threading.Thread(target=func,args=(i,c,))
    t.start()
while True:
    inp=input(">>>")
    if inp =="q":break
    c.acquire()        
    c.notify(int(inp))     #输入数字多少,上面func函数就放行几个线程
    c.release()

第二种方法,根据你输入的代码做判断:

def condition():
    ret=False
    r =input(">>>>:")
    if r == "1":     
        ret=True
    else:
        ret=False
    return ret

def func(c,i):
    print(i)
    c.acquire()
    c.wait_for(condition)     #如果condition返回结果为真,就执行以下程序 
    print(i+200)
    c.release()

c=threading.Condition()
for i in range(10):
    t=threading.Thread(target=func,args=(c,i,))
    t.start()


#显示结果
....
6
7
8
9
>>>>:1
200
>>>>:1
201
>>>>:1
202

 

Timer(定时器)

from threading import Timer
def f1():
    print("Hello Tom")
t=Timer(3,f1)   #过三秒之后执行f1方法 
t.start()

 

 

 

二、进程

在python中multiprocess模块提供了Process类,实现进程相关的功能。但是,由于它是基于fork机制的,因此不被windows平台支持。想要在windows中运行,必须使用if __name__ == '__main__:的方式,显然这只能用于调试和学习,不能用于实际环境。

def f1(l):
    print(l)
if __name__=="__main__":
    for i in range(10):
        p=Process(target=f1,args=(i,))
        p.start()

#显示结果
5
0
4
7
2
3
1
6
9
8

 

进程池:

如果要启动大量的子进程,可以使用进程池的方式批量创建子进程。进程池内部维护一个进程序列,当使用时,则去进程池中获取一个进程,如果进程池序列中没有可供使用的进程,那么程序就会等待,直到进程池中有可用的进程位置。

进程池中的两个方法:

  • apply             以串行的方式执行(阻塞的)
  • apply_async   以异步的方式执行(非阻塞的)
  • close()           关闭pool,使其不再接受新的任务
  • terminate()    结束工作进程,不再处理未完成的任务
  • join()            主进程阻塞,等待子进程退出,join方法要在close或者terminate之后使用。
from multiprocessing  import Pool
from multiprocessing import Process
import time
def f1(arg):
    time.sleep(1)
    print(arg)

if __name__=="__main__":

    poll=Pool(5)   #一次放5个进程进行工作
    for i in range(30):
        # poll.apply(func=f1,args=(i,))  #串行执行一个一个
        poll.apply_async(func=f1,args=(i,))   #当一个进程执行完毕后会添加新的进程进去


    poll.close() #使用join之前,先close,否则会报错,执行完close之后,不会有新的进程加入到pool
    # poll.terminate() #上面任务立即结束
    poll.join() #等待子进程执行完毕退出
    print("Hello")

 

进程共享:

默认情况下进程之间数据是不允许共享的,假想一下:如果进程之间默认是共享的,你在电脑上安装某宝的支付插件,又安装了某度的管家。那岂不是你所有的支付密码,里面的金额某度都知道了。。。

所以进程之间默认数据是不共享的,但是如果个人开发需要进程之间要数据共享也可以做到,如下:

#queues 进程共享队列方式
from multiprocessing import Process
from multiprocessing import queues
import multiprocessing
def foo(i,arg):
    arg.put(i)
    print("say hi",i,arg.qsize())   #打印队列里面的内容,你也可以使用arg.get获取

if __name__=="__main__":   #在Windows中多进程必须加上这一句
    li=queues.Queue(20,ctx=multiprocessing)   #数据共享
    for i in range(10):
        p=Process(target=foo,args=(i,li,))
        p.start()

#显示结果
say hi 2 3
say hi 3 5
say hi 0 5
say hi 5 6
say hi 1 6
say hi 4 6
say hi 6 9
say hi 9 9
say hi 7 9
say hi 8 10

 

上面呢使用队列的方式共享,下面还有两种方式:

Array共享方式:

不常用, 也可以实现进程间的数据共享,和Python的列表(链表) 特别相似。Java、C#中的数组。

数组只要定义好了,就必须:

  • 类型必须是一致的;
  • 个数也必须是一定的;
from multiprocessing import Process
from multiprocessing import Array
def foo(i,arg):
    arg[i]=i+100
    for itme in arg:
        print(itme)
    print("----------")

if __name__=="__main__":   #在Windows中多进程必须加上这一句
    li=Array("i",10)   #数据共享   ,i:必须制定类型,i是int类型,10分配的内存块
    for i in range(10):
        p=Process(target=foo,args=(i,li,))
        p.start()


#显示结果
0
0
0
0
104
0
0
0
0
0
----------
0
0
102
0
104
0
0
0
0
0
----------
0
101
102
0
104
0
0
0
0
0
----------
100
101
102
0
104
0
0
0
0
0
----------
100
101
102
0
104
0
0
0
0
109
----------
100
101
102
0
104
0
106
0
0
109
----------
100
101
102
0
104
0
106
0
108
109
----------
100
101
102
0
104
105
106
0
108
109
----------
100
101
102
0
104
105
106
107
108
109
----------
100
101
102
103
104
105
106
107
108
109
----------

python为什么是单线程 python单线程限制_数据

python为什么是单线程 python单线程限制_数据_02

1     'c': ctypes.c_char,  'u': ctypes.c_wchar,
2     'b': ctypes.c_byte,  'B': ctypes.c_ubyte,
3     'h': ctypes.c_short, 'H': ctypes.c_ushort,
4     'i': ctypes.c_int,   'I': ctypes.c_uint,
5     'l': ctypes.c_long,  'L': ctypes.c_ulong,
6     'f': ctypes.c_float, 'd': ctypes.c_double

Array 类型对应表

 

Manager共享方式:

from multiprocessing import Process
from  multiprocessing import Manager
def foo(i,arg):
    arg[i]=i+100
    print(arg.values())

if __name__=="__main__":   #在Windows中多进程必须加上这一句

    obj=Manager() #数据共享
    li=obj.dict()   #必须要加这一块
    for i in range(10):
        p=Process(target=foo,args=(i,li,))
        p.start()
        p.join()

#显示结果
[100]
[100, 101]
[100, 101, 102]
[100, 101, 102, 103]
[100, 101, 102, 103, 104]
[100, 101, 102, 103, 104, 105]
[100, 101, 102, 103, 104, 105, 106]
[100, 101, 102, 103, 104, 105, 106, 107]
[100, 101, 102, 103, 104, 105, 106, 107, 108]
[100, 101, 102, 103, 104, 105, 106, 107, 108, 109]

 

三、协程

线程和进程的操作都是由程序触发操作系统接口,最后执行的是系统,协程的操作则是程序员本身。

协程(Coroutine),又称为微线程,纤程. 

协程存在的意义:

  • 对于多线程应用,CPU通过切片的方式来切换进程间的执行,线程切换时需要耗时(保存状态、恢复状态下次继续,即,上下文切换)。因此没有线程切换的开销,线程数量越多,协程的性能优势就越是明显。
  • 协程,则只使用一个线程,在一个线程中规定某个代码块的执行顺序。
  • 不需要多线程的锁机制,因为只要只有一个线程,也不存在同时写变量冲突,在协程中控制共享资源不加锁,只需要判断状态就好了,所以执行效率比多线程高很多。

协程适用的场景:

  当程序中存在大量不需要CPU的操作时(如I/O操作), 适用于协程。计算型就不能协程来工作了!

子程序调用总是一个入口,一次返回,调用顺序是明确的。

 

greenlet方式

import greenlet
def test1():
    print(12)
    gr2.switch()   #调到test2中执行  print(56)
    print(34)
    gr2.switch()   #调到test2中执行 print(78)

def test2():
    print(56)
    gr1.switch()   #跳到test1中执行print(34)
    print(78)

gr1=greenlet(test1)
gr2=greenlet(test2)
gr1.switch()

#显示结果
12
56
34
78

 

gevent方式(常用)

gevent是一个基于libev的并发库。它为各种并发和网络相关的任务提供了整洁的API.

当一个greenlet遇到I/O操作时,比如访问网络,就自动切换到其他的greenlet,等到I/O操作完成,再在适当的时候切换回来继续执行。由于I/O操作非常耗时,经常使程序处于等待状态,有了gevent为我们自动切换线程,就可以保证greenlet在运行,而不是等待I/O。

from gevent import monkey; monkey.patch_all()    #把socket请求做了一个封装,完成后才具有这种功能
import gevent
import requests


def f(url):
    print('GET: %s' %url)
    resp = requests.get(url)
    data = resp.text

    print('%d bytes received from %s. '%(len(data),url))

gevent.joinall([
    gevent.spawn(f,'https://www.python.org/'),
    gevent.spawn(f,'https://www.yahoo.com/'),
    gevent.spawn(f,'https://github.com/'),
    gevent.spawn(f,'https://www.dbq168.com/'),
])


#代码执行结果:
GET: https://www.python.org/
GET: https://www.yahoo.com/
GET: https://github.com/
GET: https://www.dbq168.com/
464535 bytes received from https://www.yahoo.com/. 
47394 bytes received from https://www.python.org/. 
76292 bytes received from https://www.dbq168.com/. 
25533 bytes received from https://github.com/.