AOF和RDB分别可以通过回放日志和重新读入RDB文件的方式恢复数据,从而保证尽量少丢失数据,提升可靠性。
即使用了这两种方法,也依然存在服务不可用的问题,比如实例宕机了在恢复期间,是无法服务新来的数据存取请求。

那Redis又何来的高可靠性呢?

这里有两层含义:

  • 数据少量丢失
  • 服务尽量少中断
    AOF和RDB保证了前者,而对于后者,Redis的做法就是增加副本冗余量,将一份数据同时保存在多个实例上。即使又一个实例出现了故障,需要过一段时间才能恢复,其他实例也可以对外提供服务,不会影响业务使用。

多实例保存同一份数据,听起来好像不错,但是,我们必须考虑一个问题:这么多副本,他们之间的数据如何保持一致?数据读写操作可以发给所有的实例吗?

实际上,Redis提过了主从库模式,以保证数据副本的一致,主从库之间采用的是读写分离的方式。

  • 读操作:主库,从库都可以接收;
  • 写操作:首先从主库执行,然后主库将写操作同步给从库。
为什么要采用读写分离的方式呢?

可以设想一下,不管是主库还是从库,都能接收客户端的写操作,那么,一个直接的问题就是:如果客户端对同一个数据前后修改了三次,每一次的修改请求都发送到不同的实例上,在不同的实例上的副本就不一致了。在读取数据的时候,就可能读取到旧的值。
如果我们非要保持这个数据在三个实例上一致,就要涉及到加锁、实例间协商是否完成修改等一系列操作,但这会带来巨额的开销,当然是不太能接受的。
而主从库模式一旦采用了读写分离,所有的数据的修改只会在主库上进行,不用协商三个实例。主库有了新的数据后,会同步给从库,这样,主从库的数据就是一致的。

主从库同步是如何完成的?主库数据是一次性传给从库,还是分批同步?要是主从库间的网络断连了,数据还能保持一致吗?

主从库如何进行第一次同步?

当我们启动多个Redis实例的时候,他们相互之间就可以通过replicaof命令形成主库和从库的关系,之后会按照三个阶段完成数据的一次同步。

  • 第一个阶段是主从库间建立连接、协商同步的过程,主要是为全量复制做准备。在这一步,从库和主库建立起连接,并告诉主库即将进行同步,主库确认回复后,主从库间就可以开始同步了。
    具体来说。从库给主库发送psync命令,表示要进行数据同步,主库根据这个命令的参数来启动复制。psync命令包括了主库的runID和复制offset两个参数。
    runID,是每个Redis实例启动时都会自动生成一个随机ID,用来唯一标记这个实例。当从库和主库第一次复制时,因为不知道主库的runID,所以将runID设为“?”。
    主库收到psync命令后,会用FULLRESYNC相应命令带上两个参数:主库runID和主库目前的复制进度offset,返回给从库。从库收到响应后,会记录下这两个参数。
  • 第二阶段,主库将所有的数据同步给从库。从库收到数据后,在本地完成数据加载。这个过程依赖于内存快照生成的RDB文件。
    具体来说,主库执行bgsave命令,生成RDB文件,接着将文件发送给从库。从库🉑️RDB文件后,会先清空当前数据库,然后加载RDB文件。这是因为从库在通过加载RDB文件。这是因为从库通过replicaof命令开始和主库同步前,可能保存了其他数据。为了避免之前的数据影响,从库需要先把当前数据清空。
    在主库将数据同步给从库的过程中,主库不会被阻塞,仍然可以正常接收请求。否则,Redis的服务就被中断了。但是,这些请求中的写操作并没有记录到刚刚生菜的RDB文件中。为了保证主从库的数据一致性,主库会在内存中用专门的replication buffer,记录RDB文件生成后收到的所有写操作。
  • 第三个阶段,主库会把第二阶段执行过程中新收到的写命令,在发送给从库。具体的操作是,当主库完成RDB文件发送后,就会把此时replication buffer中的修改操作发给从库,从库再重新执行这些操作。这样依赖,主从库就实现同步了。

主从级联模式分担全量复制时的主库压力

通过分析主从库间第一次数据同步的过程,你可以看到一次全量复制中,对于主库来说,需要完成两个耗时的操作:生成RDB文件和传输RDB文件。
如果从库数量很多,而且要和主库进行全量复制的话,就会导致主库忙于fork子进程生成RDB文件,进行数据全量同步。fork这个操作会阻塞主线程处理正常请求,从而导致主库响应应用的请求速度变慢。此外,传输RDB文件也会占用主库的网络带宽,同样会给主库的资源使用带来压力。那么有没有好的解决方法可以分担主库压力呢?
其实还是有的,这就是“主 - 从 - 从 ”模式
在刚才介绍的主从库模式中,所有的从库都是和主库连接,所有的全量复制也都是和主库进行的。现在,我们可以通过“主 - 从 - 从 ”模式将主库生成的RDB文件和传输RDB的压力,以级联的方式分散到从库上。
简单来说,我们部署主从集群的时候,可以以手动的方式选择一个从库(比如选择内存资源配置较高的从库),用于级联其他从库。然后,我们可以在选择一些从库(例如三分之一的从库),在这些从库上执行如下命令,让他们和刚才所选的从库建立起主从关系。

replicaof 所选从库 IP 6379

这样依赖,这些从库就会知道,在进行同步时,不用再和主库进行交互了,只要和级联的从库进行写操作同步就行了,这就可以减轻主库上的压力。

还有一个风险点!

主从库之间会一直维护一个网络连接,主库会通过这个连接将后续陆续收到的命令操作再同步给从库,这个过程也称为基于长连接的命令传播,可以避免频繁建立连接的开销。
听上去简单,但不可忽视的是,这个过程中存在着风险点,最常见的就是网络断链或者阻塞。如果网络断连,主从库之间就无法进行命令传播了,从库的数据自然也就没有办法和主库保持一致了,客户端就可能从从库中读到旧数据。

如何解决?

在Redis2.8之前,如果主从库在命令传播时出现了网络闪断,俺么,从库就会重新进行一次全量复制,开销非常大。
从Redis2.8以后,网络断了之后,主从库会采用增量复制的方式继续同步。听名字大概就可以猜到它和全量复制的不同:全量复制就是同步所有数据,而增量复制只会把主从库网络断连期间主库收到的命令,同步给从库。
那么,增量复制时,主从库之间具体是怎样保持同步的呢?这里的奥妙在于repl_backing_buffer这个缓冲区。我们先来看下他是如何用户增量命令的同步的。
当主从库断连后,主库会把断连期间收到的写操作,写入replication buffer,同时也会把这些操作命令也写入repl_backlog_buffer这个缓冲区。
repl_backlog_buffer是一个环形缓冲区,主库会记录自己写到的位置,从库则会记录自己已经读到的位置。
刚开始的时候,主库和从库的写读位置在一起,这算是他们的起始位置,我们通常会用偏移量来衡量这个偏移距离的大小,对于主库来说,对应的偏移量就是master_repl_offset。从库接收到的新写操作越多,这个值也就越大。
同样,从库在复制完成写操作命令后,它在缓冲区中的读位置也开始逐步偏移刚才的起始位置,此时,从库已复制的偏移量slave_repl_offset也在不断增加。正常情况下,这两个偏移量基本相等。
主从库的连接恢复以后,从库首先会给主库发送psync命令,并把自己当前的slave_repl_offset发给主库,主库会判断自己的master_repl_offset和slave_repl_offset之间的差距。在网络断连阶段,主库可能会收到新的写操作,所以,一般来说master的指针会大于slave的指针。

注意的地方!

repl_backing_buffer是一个环形缓冲区,所以在缓冲区写满后,主库会继续写入,此时,就会覆盖掉之前写入的操作。如果从库的读取数据比较慢,就有可能导致从库还未读取的操作被主库新写的操作覆盖了,这会导致主从库间的数据不一致。

缓冲空间的大小 = 主库写入命令的速度 * 操作大小 - 主从库间网络传输命令速度 * 操作大小