分布式事务也是面试的一个高频知识点。
1. 事务基本概念
1.1 什么是事务?
事务是恢复和并发控制的基本单位,事务有四个特性(ACID),原子性(Atomicity),一致性(Consistency),隔离性(Isolation),持久性(Durability)。
1.2 事务经典场景
假设这样一个场景:
A 给 B 转账 100,流程步骤如下:
1、A 减 100
2、B 多 100。
如果第一步骤执行后,系统崩溃掉了。会怎么样呢?
问题:A 被减掉了 100,但 B 的钱未能加 100. 此时,A + B 的金钱总额凭空少了 100。数据不一致了。
解决思路呢?我们希望步骤 1 和步骤 2 能够绑定在一起执行,不可分;并且在步骤 1 和步骤 2执行的过程中,尽量规避中间状态。即谓事务。事务在解决上述问题中,提出了以下四种特性原子性(Atomicity),一致性(Consistency),隔离性(Isolation),持久性(Durability)。
1.2.1 原子性
原子性就是不可拆分的特性,要么全部成功然后提交(commit),要么全部失败然后回滚(rollback)。若开启事务,在上述场景就不会出现 A 少 100 成功,B 多 100 失败 这种情况。利用InnoDB的undo logundo log(回滚日志)记录需要回滚的日志信息,是实现原子性的关键,当事务回滚时能够撤销所有已经成功执行的sql语句
例如:
delete一条数据的时候,就会记录这条数据的曾经的信息,回滚的时候,insert这条旧数据
update一条数据的时候,就会记录之前的旧值,回滚的时候,根据旧值执行update操作
insert一条数据的时候,就会这条记录的主键,回滚的时候,根据主键执行delete操作
undo log记录了这些回滚需要的信息,当事务执行失败或调用了rollback,导致事务需要回滚,便可以利用undo log中的信息将数据回滚到修改之前的样子。
1.2.2 一致性
数据库通过原子性(A)、隔离性(I)、持久性(D)来保证一致性(C)。其中一致性是目的,原子性、隔离性、持久性是手段。因此数据库必须实现AID三大特性才有可能实现一致性。
1.2.3 隔离性
如果没有隔离性会发生的 4 种情况
丢失更新
A 事务撤销时,把已经提交的 B 事务的更新数据覆盖了。这种错误可能造成很严重的问题,通过下面的账户取款转账就可以看出来,MySQL 通过三级封锁协议的第一级解决了丢失更新,事务 T 要修改数据 A 时必须加 X 锁,直到 T 结束才释放锁。
脏读
脏读主要是读取到了其他事务的数据,而其他事务随后发生回滚。MySQL 通过三级封锁协议的第二级解决了脏读,在一级的基础上,要求读取数据 A 时必须加 S 锁,读取完马上释放 S 锁。
不可重复读
不可重复读是读取到数据后,随后其他事务对数据发生了修改,无法再次读取。MySQL通过三级封锁协议的第三级解决了不可重复读。在二级的基础上,要求读取数据 A 时必须加 S 锁,直到事务结束了才能释放 S 锁。
幻读
幻读是读取到数据后,随后其他事务对数据发生了新增,无法再次读取。
在 InnoDB 引擎Repeatable Read 的隔离级别下,MySQL 通过 Next-Key Lock 以及 MVCC 解决了幻读,事务中分为当前读以及快照读。
MVCC(Multi Version Concurrency Control)即多版本并发控制,一个行记录数据有多个版本对快照数据,这些快照数据在undo log中。如果一个事务读取的行正在做DELELE或者UPDATE操作,读取操作不会等行上的锁释放,而是读取该行的快照版本。
由于MVCC机制在可重复读(Repeateable Read)和读已提交(Read Commited)的MVCC表现形式不同在后续文章中将进行详细描述。
在事务隔离级别为读已提交(Read Commited)时,一个事务能够读到另一个事务已经提交的数据,是不满足隔离性的。但是当事务隔离级别为可重复读(Repeateable Read)中,是满足隔离性的。
1.2.4 持久性
一旦事务提交,则其所做的修改就会永久保存到数据库中。此时即使系统崩溃,修改的数据也不会丢失。具体实现原理就是在事务 commit 之前会将,redo log buffer 中的数据持久化到硬盘中的 redo log file,这样在 commit 的时候,硬盘中已经有了我们修改或新增的数据,由此做到持久化。
Mysql利用Innodb的redo log做到持久化
Mysql修改数据的大概流程是先把磁盘上的数据加载到内存中,在内存中对数据进行修改,再刷回磁盘上。如果此时突然宕机,内存中的数据就会丢失。如何解决该问题
最直观的想法,事务提交前直接把数据写入磁盘
这么做有什么问题
浪费资源,只修改一个页面里的一个字节,就要将整个页面刷入磁盘(一个页面16kb,每次改动都需要将16kb的内容刷入磁盘)
速度慢,每个事务里可能涉及到多个数据页的修改,而这些数据可能是不相邻的,属于随机操作IO
于是,决定采用redo log解决上面的问题。当做数据修改的时候,不仅在内存中操作,还会在redo log中记录这次操作。当事务提交的时候,会将redo log日志进行刷盘(redo log一部分在内存中,一部分在磁盘上)。当数据库宕机重启的时候,会将redo log中的内容恢复到数据库中,再根据undo log和binlog内容决定回滚数据还是提交数据。
采用redo log的优点
redo log进行刷盘的效率要远高于数据页刷盘,具体表现如下
redo log体积小,只记录了哪一页修改的内容,因此体积小,刷盘快
redo log是一直往末尾进行追加,属于顺序IO。效率显然比随机IO来的快
1.3 事务原理与锁
1.3.1 锁的问题场景:
多对一问题,多个操作者同时操作一个资源,而资源的状态变化是非原子的(有中间态),哄抢会导致资源状态混乱
1.3.2 事务的问题场景:
一对多的问题,一个操作者需要绑定操作一系列资源(比如多条 sql),若任何一条操作失败,都会导致整个操作失去意义;
1.3.3 事务的实现:
1. redo log
redo log 叫做 重做日志,是用来实现事务的持久性。该日志文件由两部分组成:重做日志缓冲(redo log buffer)以及重做日志文件(redo log),前者是在内存中,后者在磁盘中。当 事务提交之后会把所有修改信息都会存到该日志中。
PS:mysql 为了提升性能不会把每次的数据修改都实时同步到磁盘,而是会先存到 Boffer Pool(缓冲池)里头把这个当作缓存来用。然后使用后台线程去做 缓冲池和磁盘之间的同步。
redo log 主要用来恢复数据, 用于保障,已提交事务的持久化特性(宕机时,redo log 的信息是全的)
2.undo log
undo log 叫做 回滚日志,用于记录数据 被修改前的信息。
他正好跟前面所说的重做日志所记录的相反,重做日志记录数据被修改后的信息。undo log 主要记录的是数据的逻辑变化,为了在发生错误时回滚之前的操作,需要将之前的操作都记录下来,然后在发生错误时才可以回滚。
PS:mysql 每次写入数据或者修改数据之前都会把修改前的信息记录到 undo log,undo log 是用来回滚数据,用于保障 未提交事务的原子性
3. mysql 锁技术
当多个请求同时来临时,mysql 要控制读读可并行,而写读,写写不能并行
4. MVCC 技术
MVCC (MultiVersion Concurrency Control) 叫做多版本并发控制。
InnoDB 的 MVCC ,是通过在每行记录的后面保存两个隐藏的列来实现的。这两个列,一个保存了行的创建时间,一个保存了行的过期时间,当然存储的并不是实际的时间值,而是系统版本号。
他的主要实现思想是通过 数据多版本来做到 读写分离。从而实现不加锁读进而做到读写并行。
事务的 原子性是通过 undo log 来实现的
事务的 持久性是通过 redo log 来实现的
事务的 隔离性是通过 (读写锁+MVCC)来实现的
而事务的终极大 boss 一致性是通过原子性,持久性,隔离性来实现的!!!
1.4 事务的操作过程
1.编程式事务:使用 TransactionTemplate 或者直接使用底层的 TransactionManager 来操作事务 commit 或者 rollback。
2.声明式事务:建立在 AOP 基础上,通过对方法前后进行拦截,加入编程式事务里的流程控制逻辑。使用的时候只需要在方法前面加上@Transactional 注解
2 分布式事务
2.1 分布式事务概念
2.1.1 分布式事务产生的原因
随着互联网高速发展,事务的参与者、支持事务的服务器、资源服务器以及事务管理器分别位于不同的分布式系统的不同节点之上。简单的说,就是一次大的操作由不同的小操作组成,这些小的操作分布在不同的服务器上,且属于不同的应用。在这种环境中,我们之前说过数据库的 ACID 四大特性,已经无法满足我们分布式事务。
本质上来说,分布式事务就是为了保证不同数据库的数据一致性。
2.1.2 CAP 理论
CAP 定理,又被叫作布鲁尔定理。
CAP 指的是: 一致性(Consistency )、 可用性(Availability )、 分区容错性(Partition tolerance )。
CAP 定律说的是,在一个分布式系统中,最多只能满足 C、A、P 中的两个,不可能三个同时满足。
而在分布式系统中,网络无法 100% 可靠,分区其实是一个必然现象。
如果我们选择了 CA 而放弃了 P,那么当发生分区现象时,为了保证一致性,这个时候必须拒绝请求,但是 A 又不允许,所以 分布式系统理论上不可能选择 CA 择 架构,只能选择 CP 者 或者 AP 架构。而且,显然,任何横向扩展策略都要依赖于数据分区。因此,设计人员必须在一致性与可用性之间做出选择。
2.1.3 BASE 理论
往往在分布式系统中无法实现完全一致性,于是有了 BASE 理论,它是对 CAP 定律的进一步扩充
BASE 指的是:
· Basically Available (基本可用) : 分布式系统在出现故障时,允许损失部分可用功能,保证核心功能可用
· Soft state (软状态) : 允许系统中存在中间状态,这个状态不影响系统可用性
· Eventually consistent (最终一致性) : 经过一段时间后,所有节点数据都将会达到一致
BASE 理论是对 CAP 中的一致性和可用性进行一个权衡的结果
BASE 理论核心思想就是:我们无法做到强一致,但每个应用都可以根据自身的业务特点,采用适当的方式来使系统达到最终一致性
BASE 和 ACID 是相反的,它完全不同于 ACID 的强一致性模型,而是通过牺牲强一致性来获得可用性,并允许数据在一段时间内是不一致的,但最终达到一致状态。
2.2 基于 XA 协议的两阶段提交
X/Open 组织提出了分布式事务的规范 ----- XA 协议
XA 协议包含两部分:事务管理器和本地资源管理器。
其中本地资源管理器往往由数据库实现,目前主流的关系型数据库都实现了 XA 接口,而事务管理器作为全局的调度者,负责各个本地资源的提交和回滚。
XA 的核心,便是全局事务,通过 XA 二阶段提交协议,与各分布式数据交互,分准备与提交两个阶段
逻辑流程如下图:
在 XA 协议中事务分为两阶段:
· 事务管理器要求每个涉及到事务的数据库预提交(precommit)此操作,并反映是否可以提交。
· 事务协调器要求每个数据库提交数据,或者回滚数据。
优点:
· 尽量保证了数据的强一致,实现成本较低,在各大主流数据库都有自己实现,对于 MySQL 是从 5.5 开始支持。
缺点:
· 单点问题:事务管理器在整个流程中扮演的角色很关键,如果其宕机,比如在第一阶段已经完成,在第二阶段正准备提交的时候事务管理器宕机,资源管理器就会一直阻塞,导致数据库无法使用。
· 同步阻塞:在准备就绪之后,资源管理器中的资源一直处于阻塞,直到提交完成,释放资源。
· 数据不一致:两阶段提交协议虽然为分布式数据强一致性所设计,但仍然存在数据不一致性的可能。比如在第二阶段中,假设协调者发出了事务 Commit 的通知,但是因为网络问题该通知仅被一部分参与者所收到并执行了 Commit 操作,其余的参与者则因为没有收到通知一直处于阻塞状态,这时候就产生了数据的不一致性。
两阶段提交方案锁定资源时间长,对性能影响很大,基本不适合解决微服务事务问题。
2.3 3PC 事务
3PC,全称 “three phase commit”,是 2PC 的改进版,其将 2PC 的 “提交事务请求” 过程一分为二。
2.3.1 :第一个阶段:CanCommit
1.事务询问:协调者向所有的参与者发送一个包含事务内容的 canCommit 请求,询问是否可以执行事务提交操作,并开始等待各参与者的响应。
2.各参与者向协调者反馈事务询问的响应:参与者接收来自协调者的 canCommit 请求,如果参与者认为自己可以顺利执行事务,就返回 Yes,否则反馈 No 响应。
这一阶段主要是确定分布式事务的参与者是否具备了完成 commit 的条件,并不会执行事务操作。
2.3.2 第二阶段:precommit
协调者在得到所有参与者的响应之后,会根据结果执行 2 种操作:执行事务预提交,或者中断事务。
1. 执行事务预提交分为 3 个步骤:
· 发送预提交请求:协调者向所有参与者节点发出 preCommit 的请求,并进入 prepared 状态。
· 事务预提交:参与者受到 preCommit 请求后,会执行事务操作,对应 2PC 中的 “执行事务”,也会 Undo 和 Redo 信息记录到事务日志中。
· 各参与者向协调者反馈事务执行的结果:如果参与者成功执行了事务,就反馈 Ack 响应,同时等待指令:提交(commit) 或终止(abor)。
2. 中断事务也分为 2 个步骤:
· 发送中断请求:协调者向所有参与者节点发出 abort 请求 。
· 中断事务:参与者如果收到 abort 请求或者超时了,都会中断事务。
2.3.3 第三阶段:docommit
1. 执行提交
· 发送提交请求:进入这一阶段,如果协调者正常工作,并且接收到了所有协调者的 Ack 响应,那么协调者将从 “预提交” 状态变为 “提交” 状态,并向所有的参与者发送 doCommit 请求 。
· 事务提交:参与者收到 doCommit 请求后,会正式执行事务提交操作,并在完成之后释放在整个事务执行期间占用的事务资源。
· 反馈事务提交结果:参与者完成事务提交后,向协调者发送 Ack 消息。
· 完成事务:协调者接收到所有参与者反馈的 Ack 消息后,完成事务。
2. 中断事务(假设有任何参与者反馈了 no 响应,或者超时了,就中断事务)。
· 发送中断请求:协调者向所有的参与者节点发送 abort 请求。
· 事务回滚:参与者接收到 abort 请求后,会利用其在二阶段记录的 undo 信息来执行事务回滚操作,并在完成回滚之后释放整个事务执行期间占用的资源。
· 反馈事务回滚结果:参与者在完成事务回滚之后,向协调者发送 Ack 消息。
· 中断事务:协调者接收到所有的 Ack 消息后,中断事务。
2.3.4 与 与 2pc 的区别
注意:在阶段三,可能会出现 2 种故障:协调者出现问题/协调者和参与者之间的网络故障一段出现了任一一种情况,最终都会导致参与者无法收到 doCommit 请求或者 abort 请求,针对这种情况,参与者都会在等待超时之后,继续进行事务提交。
优点:
相比较 2PC,最大的优点是减少了参与者的阻塞范围(第一个阶段是不阻塞的),并且能够在单点故障后继续达成一致(2PC 在提交阶段会出现此问题,而 3PC 会根据协调者的状态进行回滚或者提交)。
缺点:
如果参与者收到了 preCommit 消息后,出现了网络分区,那么参与者等待超时后,都会进行事务的提交,这必然会出现事务不一致的问题。
2.4 TCC 方案
TCC 其实就是采用的补偿机制,其核心思想是:针对每个操作,都要注册一个与其业务逻辑对应的确认和补偿(撤销)操作。
其将整个业务逻辑的每个分支显式的分成了 Try 、Confirm 、Cancel 三个操作。Try 部分完成业务的准备工作,confirm 部分完成业务的提交,cancel部分完成事务的回滚。
优点:跟 2PC、3pc 比起来,实现以及流程相对简单了一些,但数据的一致性比 2PC 也要差一些
缺点:TCC 属于应用层的一种补偿方式,所以需要程序员在实现的时候多写很多补偿的代码,而且补偿的时候也有可能失败,在一些场景中,一些业务流程可能用 TCC 不太好定义及处理。
2.5 MQ (事务消息)
目前,仅阿里云的 RocketMQ 支持事务消息。帮助用户实现类似 X/Open XA 的分布事务功能,通过 MQ 事务消息能达到分布式事务的最终一致。
流程说明:
1. 发送方向 MQ 服务端发送消息
2. MQ Server 将消息持久化成功之后,向发送方 ACK 确认消息已经发送成功,此时消息为半消息
3. 发送方开始执行本地事务逻辑
4. 发送方根据本地事务执行结果向 MQ Server 提交二次确认(Commit 或是 Rollback),MQ Server 收到 Commit 状态则将半消息标记为可投递,订阅方最终将收到该消息;MQ Server 收到 Rollback 状态则删除半消息,订阅方将不会接受该消息
5. 在断网或者是应用重启的特殊情况下,上述步骤 4 提交的二次确认最终未到达 MQ Server,经过固定时间后 MQ Server 将对该消息发起消息回查
6. 发送方收到消息回查后,需要检查对应消息的本地事务执行的最终结果
7. 发送方根据检查得到的本地事务的最终状态再次提交二次确认,MQ Server 仍按照步骤 4 对半消息进行操作其中,事务消息发送对应步骤 1、2、3、4,事务消息回查对应步骤 5、6、7
2.6 Lcn 事务
2.6.1 背景
LCN 名称是由早期版本的 LCN 框架命名,在设计框架之初的 1.0 ~ 2.0 的版本时框架设计的步骤是如下,各取其首字母得来的 LCN 命名。
锁定事务单元(lock)
确认事务模块状态(confirm)
通知事务(notify)
2.6.2 框架定位
LCN 并不生产事务,LCN 只是本地事务的协调工
TX-LCN 定位于一款事务协调性框架,框架其本身并不操作事务,而是基于对事务的协调从而达到事务一致性的效果。
2.6.3 事务控制原理
TX-LCN 由两大模块组成, TxClient、TxManager,
TxClient 作为模块的依赖框架,提供 TX-LCN 的标准支持,TxManager 作为分布式事务的控制方。事务发起方或者参与都由
TxClient 端来控制。
原理图:
· 1.创建事务组
是指在事务发起方开始执行业务代码之前先调用 TxManager 创建事务组对象,然后拿到事务标示 GroupId 的过程。
· 2.加入事务组
添加事务组是指参与方在执行完业务方法以后,将该模块的事务信息通知给 TxManager 的操作。
· 3.通知事务组
是指在发起方执行完业务代码以后,将发起方执行结果状态通知给 TxManager,TxManager 将根据事务最终状态和事务组的信息来通知相应的参与模块提交或回滚事务,并返回结果给事务发起方。
2.7 Seata 事务
2.7.1 背景
Seata(Simple Extensible Autonomous Transaction Architecture) 是 阿里巴巴开源的分布式事务中间件,以高效并且对业务 0 侵入的方式,解决微服务场景下面临的分布式事务问题。
2.7.2 设计思想
seata 的 AT 模式,采用的是大量运用在数据库软件的 Write Ahead Log 思想,即把事务的信息以事务日志的方式记录下来。
这种处理方式,实际上是对传统两阶段提交的一种改进和优化。主要有几个关键点:
1. 传统两阶段提交协议是阻塞协议,性能差
2. 传统两阶段提交协议高可用性不好
3. 传统两阶段提交协议的全局事务隔离机制不支持
4. 根据八二原则,80% 的涉及到全局事务的业务是能正常完成并提交的。
因此,在 AT 模式下,seata 采取的做法是,一个事务分支的数据库操作执行完后,马上进行本地事务的提交,从而释放相关的数据库资源。
·分支事务中数据的 本地锁 由本地事务管理,在分支事务 Phase1 结束时释放。
·同时,随着本地事务结束, 连接 也得以释放。
·分支事务中数据的 锁 全局锁 在事务协调器侧管理,在决议 Phase2 全局提交时,全局锁马上可以释放。只有在决议全局回滚的情况下,锁 全局锁 才被持有至分支的 Phase2 结束。
2.7.3 本地事务执行流程
在进行本地提交的前提是,seata 会解析 SQL,获取数据库表的元数据,根绝 SQL 类型,选择性地生成数据的前置镜像和后置镜像,保存在 undo_log 表中,并且要求与保存 undo_log 与业务 SQL 在同一个本地事务内。
这就保证了:
1. 如果一个本地事务被提交,那么必定对应着相应的 undo_log
2. 如果保存 undo_log 保存失败,那么业务 SQL 也会失败
2.7.4 全局事务提交流程
因为每个分支事务的本地事务都已经被提交,所以如果全局事务能够顺利进行到“提交“这一阶段,那么意味着所有事务分支的本地事务都已经被提交了,数据的一致性已经得到了保证。
这个时候全局事务的提交就变得十分轻量级,就是把 undo_log 对应的记录删掉即可,即使是当时删除失败了,也已经不会影响全局事务的最终结果,这次删不了,那就待会再删,程序删不了,没事,顶多人工删。
2.7.5 全局事务回滚流程
如果全局事务的任何一个事务分支失败了,那么全局事务就进入“回滚“流程,回滚时依据先前保存好数据镜像,将原来的数据回放回去。
如果全局回放成功,那么数据的一致性也就得到了保证,如果回放不成功,那么事务就进入异常。应对异常,可能需要重试,也可能需要人工介入。
【谢谢你的关注】