你知道MySQL是如何处理千万级数据的吗?

几百万数据对mysql大么_mysql

mysql 分表思路

几百万数据对mysql大么_数据库_02

一张一亿的订单表,可以分成五张表,这样每张表就只有两千万数据,分担了原来一张表的压力,分表需要根据某个条件进行分,这里可以根据地区来分表,需要一个中间件来控制到底是去哪张表去找到自己想要的数据。

中间件:根据主表的自增 id 作为中间件(什么样的字段适合做中间件?要具备唯一性)

怎么分发?主表插入之后返回一个 id,根据这个 id 和表的数量进行取模,余数是几就往哪张表中插入数据。

注意:子表中的 id 要与主表的 id 保持一致

以后只有插入操作会用到主表,修改,删除,读取,均不需要用到主表

几百万数据对mysql大么_几百万数据对mysql大么_03

redis 消息队列

什么是消息队列?

答:消息传播过程中保存消息的容器

消息队列产生的历史原因

答:主要原因是由于在高并发环境下,由于来不及同步处理,请求往往会发生堵塞,比如说,大量的insert,update之类的请求同时到达MySQL,直接导致无数的行锁表锁,甚至最后请求会堆积过多,从而触发并发错误。通过使用消息队列,我们可以异步处理请求,从而缓解系统的压力。

消息队列的特点: 先进先出

把要执行的 sql 语句先保存在消息队列中,然后依次按照顺利异步插入的数据库中

应用: 新浪,把瞬间的评论先放入消息队列,然后通过定时任务把消息队列里面的 sql 语句依次插入到数据库中

修改

操作子表进行修改

几百万数据对mysql大么_几百万数据对mysql大么_04

这样修改有一个问题,主表和子表的数据会出现不一致,如何让主表和字表数据一致?

redis 队列保持主表子表数据一致

修改完成后将要修改主表的数据,存入 redis 队列中

几百万数据对mysql大么_数据库_05

然后 linux 定时任务(contble)循环执行 redis 队列中的 sql 语句,同步更新主表的内容

几百万数据对mysql大么_消息队列_06

mysql 分布式之分表(查,删)

查询只需要查询子表,不要查询总表

几百万数据对mysql大么_mysql_07

删除,先根据 id 找到要删除的子表,然后删除,然后往消息队列中压入一条删除总表数据的 sql 语句

然后执行定时任务删除总表数据

几百万数据对mysql大么_消息队列_08

定时任务:

几百万数据对mysql大么_mysql_09

mysql 分布式之分库

分库思路

单库单表

单库单表是最常见的数据库设计,例如,有一张用户(user)表房子啊数据库db中,所有的用户都是可以在db库中的user表中查到。

单库多表

随着用户数量的增加,user表的数据量会越来越大,当数据量达到一定程度的时候对user表的查询会渐渐的变慢,从而影响整个DB的性能。可以通过某种方式将user进行水平的切分,产生两个表结构完全一样的user_0000,user-0001等表,user_0000 + user-0001 + …的数据刚好是一份完整的数据。

多库多表

随着数据量增加也许单台DB的存储空间不够,随着查询量的增加单台数据库服务器已经没办法支撑。这个时候可以再对数据库进行水平区分。

分库原理图:

几百万数据对mysql大么_云mysql万级别数据处理_10

几百万数据对mysql大么_消息队列_11

mysql 分布式之分库(增)

几百万数据对mysql大么_mysql_12

注意:操作完一个数据库一定要把数据库连接关闭,不然 mysql 会以为一直连接的同一个数据库

还是取模确定加载哪个配置文件连接哪个数据库

几百万数据对mysql大么_消息队列_13

mysql 分布式之分库(改)

原理同新增

几百万数据对mysql大么_mysql_14

mysql 分布式之分库(查,删)

原理类似

几百万数据对mysql大么_mysql_15

删除

几百万数据对mysql大么_云mysql万级别数据处理_16

执行队列

mysql 分布式之缓存(memcache)的应用

将数据放入缓存中,节省数据库开销,先去缓存中查,如果有直接取出,如果没有,去数据库查,然后存入缓存中

几百万数据对mysql大么_mysql_17

在编辑信息之后需要删除缓存,不然一直读取的是缓存的数据而不是修改过的数据

几百万数据对mysql大么_云mysql万级别数据处理_18