一、Redis高可用
在web服务器中,高可用是指服务器可以正常访问的时问,衡量的标准是在多长时间内可以提供正常服务(99.9%、99.99% 99.998等等)。
但是在Redis语境中,高可用的含义似乎要宽泛一些,除了保证提供正常服务(如主从分离、快速容灾技术),还需要考虑数据容量的扩展、数据安全不会丢失等。
在Redis中,实现高可用的技术主要包括持久化、主从复制、哨兵和cluster集群,下面分别说明它们的作用,以及解决了什么样的问题。
- 主从复制:主从复制是高可用Redis的基础,哨兵和集群都是在主从复制基础上实现高可用的,综上说书及对于读操作的负载均衡和简单的故障恢复。缺陷:故障恢复无法自动化;写操作无法负载均衡;存储能力受到单机的限制。
- 哨兵:在主从复制的基础上,哨兵实现了自动化的故障恢复。缺陷:写操作无法负载均衡;存储能力受到单机的限制。
- 集群:通过集群,Redis解决了写操作无法负载均衡,以及存储能力受到单机限制的问题,实现了较为完善的高可用方案。
- 持久化:持久化是最简单的高可用方法(有时甚至不被归为高可用的手段),主要作用是数据备份,即将数据存储在硬盘,保证数据不会因进程退出而丢失。
二、Redis持久化
1. 持久化功能
Redis是内存数据库,所有数据都是保存在内存中,为了避免服务器断电等原因导致Redis进程异常退出后数据永久丢失,需要定期将Redis中的数据以某种形式(数据或者命令)从内存保存到硬盘;当下次Redis重启时,利用持久化文件实现数据恢复。除此之外为了进行灾难备份,可以持久将文件拷贝到一个远程位置(比如备份服务器)。
2. Redis 进行持久化方式及其优缺点
- RDB持久化:原理是将Redis在内存中的数据库记录 定时保存到磁盘上(快照)
- AOF 持久化(append only file):原理是将Redis的 操作日志已追加的方式写入文件,类似于mysql的 binlog(增量备份)
优缺点:RDB持久化保存数据慢、实时性较差但是恢复比较快,缺点是若进程退出可能会丢失数据。
AOF持久化保存数据快、实时性较好但是恢复比较慢,进程退出不会造成数据丢失,即使丢失也就丢失最后很少一部分。
现在市场大部分用的是AOF持久化方式,不过RDB持久化仍然有其用武之地
3.RDB持久化原理,出发方式,执行过程
3.1 RDB持久化原理
RDB 持久化是指在指定的时间间隔内将内存中的数据集快照写入磁盘,Redis从master主进程先fork出一个子进程,使用写时复制机制,子进程将内存的数据保存为一个临时文件,比如:tmp-.rdb,当数据保存完成之后再将上一次保存的RDB文件替换掉,然后关闭子进程,这样可以保证每一次做RDB快照保存的数据都是完整的。因为直接替换RDB文件的时候,可能会出现突然断电等问题,而导致RDB文件还没有保存完整就因为突然关机停止保存,而导致数据丢失的情况.后续可以手动将每次生成的RDB文件进行备份,这样可以最大化保存历史数据。
3.2 触发方式
RDB 持久化触发条件分为手动触发和自动触发两种
- 手动触发
save命令和bgsave命令都可以生成RDB文件。
save命令会阻塞Redis服务器进程,直到RDB文件创建完毕为止,在Redis服务器阻塞期间,服务器不能处理任何命令请求。
而bgsave命令会创建一个子进程,由子进程来负责创建RDB文件,父进程 (即Redis主进程) 则继续处理请求。
bgsave命令执行过程中,只有fork 子进程时会阻塞服务器,而对于save命令,整个过程都会阻塞服务器,因此save已基本被废弃,线上环境要杜绝save的使用。往往生产环境 bgsave 依然不允许轻易使用
- 自动触发
在自动触发RDB持久化时,Redis也会选择bgsave而不是save来进行持久化。
save m n自动触发最常见的情况是在配置文件中通过save m n,指定当m秒内发生n次变化时,会触发bgsave。
1 vim /etc/redis/6379.conf
2 --219行--以下三个save条件满足任意一个时,都会引起bgsave的调用
3 save 900 1 :当时间到900秒时,如果redis数据发生了至少1次变化,则执行bgsave
4 save 300 10 :当时间到300秒时, 如果redis数据发生了至少10次变化,则执行bgsave
5 save 60 10000 :当时间到60秒时,如果redis数据发生了至少10000次变化, 则执行bgsave
6 --242行--是否开启RDB文件压缩
7 rdbcompression yes
8 --254行--指定RDB文件名
9 dbfilename dump.rdb
10 --264行--指定RDB文件和AOF文件所在目录
11 dir /var/lib/redis/6379
3.3 执行过程
①Redis父进程首先判断 :当前是否在执行save,或bgsave/bgrewriteaof的子进程,如果在执行则bgsave命令直接返回。
bgsave/bgrewriteaof 的子进程不能同时执行,主要是基于性能方面的考虑:两个并发的子进程同时执行大量的磁盘写操作,可能引起严重的性能问题。
②父进程执行fork操作创建子进程,这个过程中父进程是阻塞的,Redis不能执行来自客户端的任何命令
③父进程fork后,bgsave 命令返回 "Background saving started" 信息并不再阻塞父进程,并可以响应其他命令
④子进程创建RDB文件,根据父进程内存快照生成临时快照文件,完成后对原有文件进行替换
⑤子进程发送信号给父进程表示完成,父进程更新统计信息
4. AOF原理,触发方式,执行过程
4.1 AOF原理
AOF持久化,则将Redis执行的每次写、删除命令记录到单独的日志文件中,查询操作不会记录; 当Redis重启时优先执行AOF文件中的命令来恢复数据。与RDB相比,AOF的实时性更好,因此已成为主流的持久化方案
4.2 触发方式
- 手动触发
bgrewriteaof命令
- 自动触发
设置auto-aof-rewrite-min-size 64m:当前AOF直接执行重写AOF的最小值,避免刚启动reids由于文件较小导致频繁重写AOF
设置auto-aof-rewrite-percentage 100 :当AOF文件大小是上次日志重写AOF大小的俩倍时触发AOF来自动执行BGREWRITEAOF。 只有当两个选项同时满足时,才会自动触发AOF重写,即bgrewriteaof操作。
4.3 执行流程
AOF的执行流程包括:
● 命令追加(append): 将Redis的写命令追加到缓冲区aof_buf;
● 文件写入(write)和文件同步(sync):根据不同的同步策略将aof_buf中的内容同步到硬盘;
● 文件重写(rewrite): 定期重写AOF文件,达到压缩的目的。
文件重写的流程如下:
(1) Redis父 进程首先判断当前是否存在正在执行bgsave/bgrewriteaof的子进程,如果存在则bgrewriteaof命令直接返回,如果存在bgsave命令则等bgsave执行完成后再执行。
(2) 父进程执行fork操作创建子进程,这个过程中父进程是阻塞的。
(3.1) 父进程fork后,bgrewriteaof 命令返回"Background append only file rewrite started" 信息并不再阻塞父进程,并可以响应其他命令。Redis的所有写命令依然写入AOF缓冲区,并根据appendfsync策略同步到硬盘,保证原有A0F机制的正确。
(3.2) 由于fork操作使用写时复制技术,子进程只能共享fork操作时的内存数据。由于父进程依然在响应命令,因此Redis使用AOF重写缓冲区(aof_ rewrite_buf) 保存这部分数据,防止新AOF文件生成期间丢失这部分数据。也就是说,bgrewriteaof执行 期间,Redis的写 命令同时追加到aof_ buf和aof_ rewirte_ buf两个缓冲区。
(4) 子进程根据内存快照,按照命令合并规则写入到新的AOF文件。
(5.1) 子进程写完新的AOF文件后,向父进程发信号,父进程更新统计信息,具体可以通过info persistence查看。
(5.2) 父进程把AOF重写缓冲区的数据写入到新的AOF文件,这样就保证了新AOF文件所保存的数据库状态和服务器当前状态一致。
(5.3) 使用新的AOF文件替换老文件,完成AOF重写。
5. 启动时加载顺序
redis启动时会有限加载AOF文件来恢复数据,若AOF未开启才会加载RDB文件,AOF开启无AOF文件也不会加载RDB,若AOF文件尾部不完整报错则需要借助aof-load-truncated参数忽略错误,此参数默认是开启的.
三、redis集群
虽然Redis可以实现单机的数据持久化,但无论是RDB也好或者AOF也好,都解决不了单点宕机问题,即一旦单台 redis服务器本身出现系统故障、硬件故障等问题后,就会直接造成数据的丢失,此外单机的性能也是有极限的,因此需要使用另外的技术来解决单点故障和性能扩展的问题。
1. 集群模式
主从复制:主从复制是高可用Redis的基础,哨兵和集群都是在主从复制基础上实现高可用的。主从复制主要实现了数据的多机备份,以及对于读操作的负载均衡和简单的故障恢复。缺陷:故障恢复无法自动化;写操作无法负载均衡;存储能力受到单机的限制。
哨兵:在主从复制的基础上,哨兵实现了自动化的故障恢复。缺陷:写操作无法负载均衡:存储能力受到单机的限制;哨兵无法对从节点进行自动故障转移,在读写分离场景下,从节点故障会导致读服务不可用,需要对从节点做额外的监控、切换操作。
集群:通过集群,Redis解决了写操作无法负载均衡,以及存储能力受到单机限制的问题,实现了较为完善的高可用方案。
2. redis主从复制定义与作用
主从复制:将一台reids的数据复制到多开redis上被复制的redis为主节点,复制的reids为从节点,只能从主节点复制到从节点。
- 数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
- 故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
- 负载均衡:在主从复制的基础.上,配合读写分离,可以让主节点提供写服务,由从节点提供读服务〈即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
- 高可用基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。
3. 主从复制流程
①若启动一个Slave机器,则它会向Master机器发送一个"sync command"命令,请求同步连接。从发给主
②无论是第一次连接还是重新连接,Master机器都会启动一个后台进程,将数据快照保存到数据文件中(执行rdb操作),同时Master还会记录修改数据的所有命令并缓存在数据文件中。
③后台进程完成缓存操作之后,Master机器就会向Slave机器发送数据文件存储,接着Master机器就会将修改数据的所有操作一并发送给Slave端机器。若slave出现故障导致宕机,则恢复正常后会自动重新连接。
④Master机器收到Slave端机器的连接后,将其完整的数据文件发送给slave端机器,如果Master同时收到多个slave发来的同步请求,则Master会在后台启动一个进程以保存数据文件,然后将其发送给所有的Slave端机器,确保所有的Slave端机器都正常。
4. 搭建主从复制
4.1 实验环境
准备三台机器
1 master节点:192.168.200
2 slave1节点:192.168.100
3 slave2节点:192.168.150
4
5 systemctl stop firewalld
6 setenforce 0
4.2 安装redis
1 Yum install -y gcc gcc-c++ make
2 #安装依赖包
3 cd /opt/
4 将安装包拖到opt目录下
5 tar xf redis-5.0.7.tar.gz
6 cd redis-5.0.7/
7 make
8 make prefix=/usr/local/redis install
9 cd /opt/redis-5.0.7/utils
10
11 ./install-server.sh
12 #执行安装脚本
13
14 一直回车
15 /etc/init.d/redis_6379 restart
16 #重启redis
4.3 主节点操作
1 vim /etc/redis/6379.conf
2
3 70 bind 0.0.0.0
4 #70行监听地址为0.0.0.0
5 137 daemonize yes
6 #137行开启守护进程
7 172 logfile /var/log/redis_6379.log
8 #172行指定存放地址
9 264 dir /var/lib/redis/6379
10 #264行指定工作目录
11 700 appendonly yes
12 #700行开启AOF持久化
13
14 /etc/init.d/redis_6379 restart
15 #重启服务
4.4 两个从节点操作
1 bind 0.0.0.0
2 #70行,修改监听地址为0.0.0.0(生产环境中需要填写物理网卡的IP)
3 daemonize yes
4 #137行,开启守护进程,后台启动
5 logfile /var/log/redis_6379.log
6 #172行,指定日志文件目录
7 dir /var/lib/redis/6379
8 #264行,指定工作目录
9 replicaof 192.168.50.200 6379
10 #288行,指定要同步的Master节点的IP和端口
11 appendonly yes
12 #700行,修改为yes,开启AOF持久化功能
13
14 /etc/init.d/redis_6379 restart
15 #重启redis
4.5 验证主从复制
1 主节点
2 tail -f -n 20 /var/log/redis_6379.log
3 #查看主节点日志中是否有2个从节点ip成功的信息
4
5 主节点
6 redis-cli info replication
7 #查看下面的connected_slaves:是否为2下面的slaveip是否为2个从节点的ip