postgresql异步流复制 pymysql 异步_python mysql操作


之前一直在使用mongo与redis,最近在项目中开始使用mysql数据库,由于现在的项目是全程异步的操作,所以在在网上查了下关于在python中异步的操作mysql,找来找去最后发现aiomysql的是实现最好的,现在简单介绍一下它的使用。

aiomysql的文档地址 https://aiomysql.readthedocs.io/en/latest/

需要根据项目中使用mysql查询的频率来选择是使用单独的connection还是使用连接池,查询较少的可以选择使用connection,使用一次以后就断开,再次使用再次连接,但是对于mysql,每次连接的开销都很高,所以建议还是使用连接池,由于不同的mysql服务对于interactive_timeout的设置时间不同,所以这里还要注意一下这个超时问题,在同步版本中关于mysql主动断开连接的问题可以参考我之前的文章,解决mysql服务器在无操作超时主动断开连接的问题 ,异步版本同样也要注意这个问题。

为了测试,我在docker中启了一个mysql服务,并且设置interactive_timeout为5秒,非常短,这样测试以后,如果一个连接在5秒钟之内都没有任何查询则主动将该连接断开。数据很简单就两条


postgresql异步流复制 pymysql 异步_python mysql操作_02


使用单独的connection

根据官方文档,我对其进行了一点封装,采用单例模式。


postgresql异步流复制 pymysql 异步_连接池_03


这个小脚本执行很顺利,得到的结果

(1, 'yang', 18)(2, 'fan', 16)

简单说明一个这个脚本,由于aiomysql.connect是异步的,在python里 __init__ 方法不能使用async关键词,也就是在对象的初始化时不能异步,所以我将获取连接的操作单独的使用单例模式来创建一个连接,当然也可以不使用单例,每次进行查询的时候,都重新获取一个新的连接connection。

处理连接无操作超时问题

还是那个老生常谈的问题,如果某个连接在一段时间内无操作,mysql会主动断开这个连接,我这里设置的5秒钟,那么我们看看停顿6秒钟以后再次尝试查询操作会怎样?


postgresql异步流复制 pymysql 异步_python mysql操作_04


sleep了6秒钟以后,当再次使用该connection的cursor对象进行查询操作时,由于mysql服务已经将该连接关闭,所以会得到2013, 'Lost connection to MySQL server during query'错误。


postgresql异步流复制 pymysql 异步_python mysql操作_05


解决方法还是和之前同步版本一样,在进行查询操作之前,先使用connection.ping()方法来检查一下连接是否有效,该方法默认会在连接无效的时候进行重新连接。这里我直接修改Pmysql类的query方法


postgresql异步流复制 pymysql 异步_python mysql操作_06


这样上面的脚本就可以正常的执行了。

异步地执行多个查询

异步的操作的优势在于它可以"同时"的进行多个操作,如果查询只是一个一个的单独查询,那用不用异步其实都无所谓,这里尝试使用异步来同时执行多个操作


postgresql异步流复制 pymysql 异步_初始化_07


这里我准备了两个查询操作,test和test2,并将它们的结果放到另外一个协程querysum中,但是结果却出乎意料,脚本崩了……

我看崩溃信息很多,其中有一条

RuntimeError: readexactly() called while another coroutine is already waiting for incoming data,

这条给我感觉是当一个协程在等待数据的时候突然另外一个协程进来了打断了它的数据读取。

我个人推断应该是我采用了单例,它们共用一个connection然后在异步的处理过程中,当一个查询在进行过程中,在等待协程地数据返回,此时由于用了await,执行权会让出给别的协程,但是此时如果别的协程又在该connection上进行了数据库查询,则会影响到被await协程地数据读取。但是他们是用的同一个connection吗? 我打印一下看看


postgresql异步流复制 pymysql 异步_初始化_08


得到的结果是:

test... 1719190377360test2.. 1719190377976

惊奇的发现,它们用的居然不是同一个connection…,那么问题是不是出在了单例模式下的初始化connection函数上……

我们返来看一下connection初始化条件if Pmysql.__connection == None:,如果__connection 是None的话则进行初始化操作,据此我又推断,由于我在两个协程中共用的是一个全局的mysqlobj,mysqlobj = Pmysql(),所以在这两个协程运行的一开始在同时调用await Pmysql.getconnection()时,由于此时,这个mysqlobj的__connection是空,所以这两个协程此时的判断都是为空,所以都重新进行了数据库连接操作,然后把各自初始化获取的conn赋给了mysqlobj.connection,但是这就有问题了,同一个对象的某个属性的值就变了,所以在之后使用connection的cursor对象进行数据库查询操作时就会出现问题……

那么我把其中一个协程在获取connection对象之前先暂停一下呢,让另外一个协程先获取到connection,这样当另外的协程再次获取的时候就可以直接获取到之前初始化过的connection了.


postgresql异步流复制 pymysql 异步_初始化_09


我在test2()函数获取connection之前sleep(0.1)秒

此时在test()函数和test2()函数中得到的connection就是相同的了,但是脚本依然报错


postgresql异步流复制 pymysql 异步_mysql_10


脚本报了一个0, 'Not connected'错误,这里是由于在test()和test2()函数执行完以后都执行了mysqlobj.connection.close()操作来关闭这个connection,在异步操作中,不一定谁先执行完,谁先执行完就将connection关闭,但是你关闭了,其它协程可能还会用到,所以这里就报了Not connected错误。

解决方法是将mysqlobj.connection.close()注掉,在脚本全部执行完以后统一对connection进行关闭操作


postgresql异步流复制 pymysql 异步_mysql_11


此时得到正确的执行结果

test... 1732819440584test2.. 1732819440584((1, 'yang', 18), (2, 'fan', 16))((1, 'yang', 18),)

其实这里还可以不使用全局的mysqlobj,在每次查询的时候使用各自独立的对象,使用独立的连接connection


postgresql异步流复制 pymysql 异步_连接池_12


如果使用单独的对象,单独的connection,那么我们其实不需要自己来维护这套连接机制,而是使用下面要介绍的连接池操作。

使用连接池pool

使用连接池的意义在于,有一个池子,它里保持着指定数量的可用连接,当一个查询结执行之前从这个池子里取一个连接,查询结束以后将连接放回池子中,这样可以避免频繁的连接数据库,节省大量的资源。


postgresql异步流复制 pymysql 异步_初始化_13


该脚本在test方法在数据库查询操作分成了两部分,中间停了6秒钟来让mysql服务主动断开连接,当进行第二次查询的时候,并没有报2013, 'Lost connection to MySQL server during query'error,这里是由于


postgresql异步流复制 pymysql 异步_mysql_14


在getCurosr方法中是从连接池中重新获取了一个可用的连接。

异步处理多任务

和单连接一样,我们这里尝试异步的处理多个任务看看情况如何


postgresql异步流复制 pymysql 异步_python mysql操作_15


注意这里在运行test()和test2()放入的是同一个mysqlobj,但是它们在进行查询的时候都重新通过pool.acquire()重新获取连接和游标,这样它们相互之间不互影响,可以各自进行各自的查询。

aiomysql 的使用初步就讲到这里,之后我会介绍一下在tornado中如何异步的使用aiomysql进行查询。