1. 缓存穿透:查不存在的ID

  • 如查询 不存在的 ID,ID是 随机数生成的

key对应的数据在数据源并不存在,每次针对此key的请求从缓存获取不到,请求都会压到数据源,从而可能压垮数据源。比如用一个不存在的用户id获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库。

1、应用服务器压力变大了
2、redis命中率降低
3、一直查询数据库

1、reids查询不到数据库
2、出现很多非正常url访问

四种解决方案:空缓存,布隆 白名单,实时监控

(1) **对空值缓存:**如果一个查询返回的数据为空(不管是数据是否不存在),我们仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟

(2) 设置可访问的名单(白名单):

使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果访问id不在bitmaps里面,进行拦截,不允许访问

  • 位图,实现对位的操作
  • 并不是实际的数据类型,而是定义在String类型上的一个面向字节操作的集合
  • BitMap可以理解为存储bit的数组,多个bit存储后组成的一个特定结构,每个位置只能存储1和0。
122.112.181.245:0>setbit student:20220526 10 1
"0"

122.112.181.245:0>getbit student:20220526 10
"1"
122.112.181.245:0>getbit student:20220526 12
"0"

(3) 采用布隆过滤器:(布隆过滤器(Bloom Filter)是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)。

布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。)

将所有可能存在的数据哈希到一个足够大的bitmaps中,一个一定不存在的数据会被 这个bitmaps拦截掉,从而避免了对底层存储系统的查询压力。

(4) **进行实时监控:**当发现Redis的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务

2. 缓存击穿:一个key过期 大量访问

1、数据库访问压力瞬时增加

2.redis里面没有出现大量key过期

3.redis正常运行

1、redis某个key过期了,大量访问使用这个Key

key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。

key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:缓存被“击穿”的问题。

3种解决方案:预热,实时调整,锁,

解决问题:

**(1)预先设置热门数据:**在redis高峰访问之前,把一些热门数据提前存入到redis里面,加大这些热门数据key的时长

**(2)实时调整:**现场监控哪些数据热门,实时调整key的过期时长

(3)使用锁:

  1. 就是在缓存失效的时候(判断拿出来的值为空),不是立即去load db。
  2. 先使用缓存工具的某些带成功操作返回值的操作(比如Redis的SETNX)去set一个mutex key
  3. 当操作返回成功时,再进行load db的操作,并回设缓存,最后删除mutex key;
  1. setNx 成功,才进行操作数据库
  2. setNx失败,说明有 其他线程再 操作数据库
  1. 当操作返回失败,证明有线程在load db,当前线程睡眠一段时间再重试整个get缓存的方法。
  • 查询 Redis get key
  • 返回结果 不为空,睡眠一段时间,再次查询。
  • 返回值结果为空,设置排它锁,set key_mutex 1 ex 180 nx
  • 设置成功,查询数据库,同步缓存,删除排它锁
  • 设置失败,排它锁存在别的线程已经再查数据库、同步缓存了

3. 缓存雪崩:多个key过期

1、数据库压力变大服务器崩溃

  • 应用程序的访问时间 变慢,Redis里有大量的访问等待,
  • 最终造成:数据库崩溃了,应用和redis 都崩溃了。

1。 在极少时间段,查询大量key的集中过期情况

key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。

缓存雪崩与缓存击穿的区别在于这里针对很多key缓存,前者则是某一个key

解决方案:多级缓存,锁或队列,触发更新,失效分散

缓存失效时的雪崩效应对底层系统的冲击非常可怕!

解决方案:

(1) **构建多级缓存架构:**nginx缓存 + redis缓存 +其他缓存(ehcache等)

(2) 使用锁或队列

用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况

(3) 设置过期标志更新缓存:

记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际key的缓存。

(4) 将缓存失效时间分散开:

比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。