在项目开发当中,经常有这样一种场景,对数据库进行添加、修改、删除操作的应用直接连接master库,只对数据库进行查询的应用,会先建立一个中央缓存,例如redis或者memcache,如果缓存没有命中,那么直接访问slave库。下文会介绍一下在刷新中央缓存时,如果发生主从延迟,应该如何处理。也即是,当应用System-A 把数据库写入master库的时候,System-B应用在读取slave库的时候,master库的数据还没同步到slave库,如果这个时候刷新缓存的话,会直接把旧的数据刷到缓存里的。

本地缓存框架缓存数据

我们可以根据数据的update_time 来判断master库的数据是否已经同步到slave库。假设有一个update数据库的操作,通过update_time得知,最新的master库的数据还未同步到slave库,那么我们可以把这条数据的主键存储到本地缓存当中,例如使用LinkedBlockingQueue 这个队列作为本地缓存,将数据主键id存储到队列中,然后启动一个job去扫描这个队列,一旦发现队列中有数据,则进行处理。在处理数据的过程中,如果发现该条数据还是未从master同步过来,那么继续把这条数据的主键放入队列中,等待下一次的处理,一直到master库的数据同步过来为止。如若由于数据库原因或者数据原因或者代码问题等,导致数据一直处于入队列/出队列的死循环当中,那么我们可以为数据设置一个出入队列的次数,例如5次,超过五次的,则该条数据把它丢失掉。

下面列出一些伪代码:

队列实现




cmd mysql刷新数据库 mysql刷新缓存_缓存


扫描本地缓存队列的job

使用spring的定时任务注解:


cmd mysql刷新数据库 mysql刷新缓存_数据_02


消息体


cmd mysql刷新数据库 mysql刷新缓存_数据缓存刷新_03


备注:

注意要设置队列的最大容量,如果队列中的数据数量超过最大容量,可以根据自己的业务情况,删除队头或者不再加入数据。

这个方案在应用重启的数据,本地缓存会被清理,造成数据丢失。

必须有一个开关,控制是否接收消息。因为一旦生产者发送的并发量太大,会引起其他问题,这个时候,可以通过开关控制不接收消息,以便达到降级的效果。毕竟我们只是刷新缓存而已,大不了不刷。

使用MQ

如果MQ有如下的特性的话,也可以尝试使用:

当数据未从master同步过来时,可以把消息的状态设置为later,让消息发送者每隔一段时间再次发送,例如2s后、5s后1分钟后,这样不断的发送,直到一个小时后,停止发送。

这样的话,应用就无需使用本地缓存了,直接利用MQ。同时当应用重启的时候,消息也不会丢失。