Dubbo学习之Zookeeper原理

  • 背景
  • Zookeeper核心
  • ZAB协议初识
  • 1. 事务编号Zxid(事务请求计数器+epoch)
  • 2. epoch
  • 3. Zab协议有两种模式-恢复模式(选主)、广播模式(同步)
  • 4. Zab协议四阶段
  • ZAB 协议 JAVA 实现(FLE-发现阶段和同步合并为 Recovery Phase(恢复阶段))
  • Zookeeper投票机制
  • Zookeeper工作原理
  • Znode有四种形式的目录节点


背景

学习dubbo的时候接触过zookeeper,但是一直没搞清楚他的原理是啥,趁着有点时间,自己深入学习一下顺便做一些总结方便日后回忆(好记性真的不如烂笔头)

Zookeeper核心

Zookeeper核心是原子消息传递机制(即原子广播),该机制使所有服务器保持同步。实现这个机制的协议是ZAB协议。ZAB协议有两种模式,分别是恢复模式和广播模式。既然说到了ZAB协议我们就对他做个简单的认识吧

ZAB协议初识

1. 事务编号Zxid(事务请求计数器+epoch)
  • 在ZAB(Zookeeper Atomic Broadcast,zookeeper原子协议广播)协议的事务编号Zxid设计中,Zxid是一个64位的数字,其中低32位是一个简单的单调递增的计数器,针对客户端每一个事务请求,计数器加1;而高32位则代表Leader周期epoch的编号,每个当选产生一个新的Leader服务器,就会从这个Leader服务器上取出其本地日志最大事务的ZXID,并从中读取epoch值,然后加1,以此作为新的epoch,并将低32位从0开始计数
    疑问:如果计数器从零开始其他的文件目录节点会不会受影响?
2. epoch
  • epoch: 可以理解为当前集群所处的年代或者周期,每个Leader就想皇帝,都有自己的年号,所以每次改朝换代,leader变更后,都会在前一个朝代的基础上加1。这样就算旧的Leader崩溃恢复之后,也没有人会听他的了,因为follow只会听从当前年代的leader的命令。
3. Zab协议有两种模式-恢复模式(选主)、广播模式(同步)

Zab有两种协议模式,他们分别是恢复模式(选主)和广播模式(同步)。当服务启动或者在领导者崩溃后,Zab进入恢复模式,当领导者被选出来,且大多数server完成了和Leader状态同步后,恢复模式就结束了。状态同步保证了Leader和Server具有相同的系统状态。

疑问:其他server如果同步没有完成,正好有客户端读到哪些没有同步的,不是会数据不一致吗?

4. Zab协议四阶段

Leader election(选举阶段-选出准Leader)

  • Leader election(选举阶段):节点在一开始都处于选举阶段,只要一个节点得到超过半数节点的票数,它就当选准Leader。只要到达广播阶段(broadcast)准Leader才会成为真正的Leader。这个阶段的目的就是为了选出准Leader,然后进入下一阶段

Discovery(发现阶段-接收提议、生成epoch、接受epoch)

  • Discovery(发现阶段):在这个阶段。followers跟准leader进行通信,同步followers最近接收的事务提议。这个阶段的主要目的是发现当前大多数节点接收的最新提议,并且准leader生成新的epoch,让followers接受,更新他们的accepted Epoch
  • 一个follower只会连接一个leader,如果有一个节点f认为另一个follower p是leader,f在尝试连接p时被拒绝,f在被拒后,就会进入重新选举阶段

Synchronization(同步阶段-同步 follower 副本)

  • Synchronization(同步阶段):同步阶段主要是利用Leader前一阶段获得的最新提议历史,同步集群中所有的副本。只有当大多数节点都同步完成,准leader才会成为真正的leader。follower只会接收Zxid比自己lastZxid大的提议。

Broadcast(广播阶段-leader 消息广播)

  • Broadcast(广播阶段):到了这个阶段,Zookeeper 集群才能正式对外提供事务服务, 并且 leader 可以进行消息广播。同时如果有新的节点加入,还需要对新节点进行同步。

ZAB 提交事务并不像 2PC 一样需要全部 follower 都 ACK,只需要得到超过半数的节点的 ACK 就 可以了。

留下疑问:ZAB协议核心是啥?1

ZAB 协议 JAVA 实现(FLE-发现阶段和同步合并为 Recovery Phase(恢复阶段))

协议的 Java 版本实现跟上面的定义有些不同,选举阶段使用的是 Fast Leader Election(FLE),
它包含了选举的发现职责。因为FLE会选举拥有最新提议历史的节点作为 leader,这样就省去了
发现最新提议的步骤。实际的实现将 发现阶段 和 同步合并为 Recovery Phase(恢复阶段)。所
以,ZAB 的实现只有三个阶段:Fast Leader Election;Recovery Phase;Broadcast Phase。

Zookeeper投票机制

每个Server首先给自己投票,然后用自己的选票和其他Server选票对比,使用权重较大的更新自身选票箱。 具体选举过程如下:

  1. 每个Server启动以后都询问其他的Sever它要投票给谁。对其他server询问,server每次根据自己的状态都恢复自己推荐的leader的id和上一次处理事务的Zxid(系统启动时每个人都会推荐自己)
  2. 收到所有server回复以后,就计算出Zxid最大的那个server,并将这个server相关信息设置成下一次要投票的server
  3. 计算过程中获得票数最多的server为获胜者,如果获胜者的票数超过半数,则改变server为leader。否则,继续这个过程,知道leader被选举出来
  4. leader开始等待server连接
  5. follower连接leader,将最大的Zxid发送给leader
  6. leader根据follower的Zxid确定同步点,至此选举阶段完成
  7. 选举阶段完成leader同步后通知follower已经成为uptodate状态
  8. follower收到uptodate消息后,又可以重新接受client的请求进行服务了

举个例子
目前5台服务器,每台服务器均没有数据,他们的编号分别是1,2,3,4,5,按编号启动他们。他们的选举过程如下:

  1. 服务器 1 启动,给自己投票,然后发投票信息,由于其它机器还没有启动所以它收不到反
    馈信息,服务器 1 的状态一直属于 Looking。
  2. 服务器 2 启动,给自己投票,同时与之前启动的服务器 1 交换结果,由于服务器 2 的编号
    大所以服务器 2 胜出,但此时投票数没有大于半数,所以两个服务器的状态依然是Looking。
  3. 服务器 3 启动,给自己投票,同时与之前启动的服务器 1,2 交换信息,由于服务器 3 的编
    号最大所以服务器 3 胜出,此时投票数正好大于半数,所以服务器 3 成为领导者,服务器
    1,2 成为小弟。
  4. 服务器 4 启动,给自己投票,同时与之前启动的服务器 1,2,3 交换信息,尽管服务器 4 的
    编号大,但之前服务器 3 已经胜出,所以服务器 4 只能成为小弟。
  5. 服务器 5 启动,后面的逻辑同服务器 4 成为小弟。

选举代码所在包目录

dubbo zookeeper 代码 dubbo zookeeper原理_sed


选举代码片段

// Zookeeper包FastLeaderElection类中的选举函数
public Vote lookForLeader() throws InterruptedException {
        try {
        	// 初始化一个选举对象
            this.self.jmxLeaderElectionBean = new LeaderElectionBean();
            // 将这个初始化对象注册进CurrentHashmap
            MBeanRegistry.getInstance().register(this.self.jmxLeaderElectionBean, this.self.jmxLocalPeerBean);
        } catch (Exception var23) {
            LOG.warn("Failed to register with JMX", var23);
            this.self.jmxLeaderElectionBean = null;
        }

        if(this.self.start_fle == 0L) {
            this.self.start_fle = Time.currentElapsedTime();
        }

        try {
            HashMap recvset = new HashMap();
            HashMap outofelection = new HashMap();
            int notTimeout = 200;
            // 更新提议(保证同步)
            synchronized(this) {
                this.logicalclock.incrementAndGet();
                this.updateProposal(this.getInitId(), this.getInitLastLoggedZxid(), this.getPeerEpoch());
            }

            LOG.info("New election. My id =  " + this.self.getId() + ", proposed zxid=0x" + Long.toHexString(this.proposedZxid));
            // 通知所有的server我的提议
            this.sendNotifications();

            FastLeaderElection.Notification n;
            // 获取当前peer状态为LOOKING并且服务没有停止
            while(this.self.getPeerState() == ServerState.LOOKING && !this.stop) {
            	// 取出最先进入的元素,如果没有值则阻塞等待给定的时间,此处给的是notTimeout,单元为毫秒
                n = (FastLeaderElection.Notification)this.recvqueue.poll((long)notTimeout, TimeUnit.MILLISECONDS);
                // 没有通知
                if(n == null) {
                	// 队列中还有连接信息
                    if(this.manager.haveDelivered()) {
                        this.sendNotifications();
                    } else {
                    	// 去进行server连接
                        this.manager.connectAll();
                    }

                    int e1 = notTimeout * 2;
                    notTimeout = e1 < '\uea60'?e1:'\uea60';
                    LOG.info("Notification time out: " + notTimeout);
                } else if(this.validVoter(n.sid) && this.validVoter(n.leader)) {
                    Vote e;
                    Vote var6;
             		//这个switch代码不是太清楚什么意思       
                    switch(null.$SwitchMap$org$apache$zookeeper$server$quorum$QuorumPeer$ServerState[n.state.ordinal()]) {
                    case 1:
                        if(n.electionEpoch > this.logicalclock.get()) {
                            this.logicalclock.set(n.electionEpoch);
                            recvset.clear();
                            // 如果n的权重和Zxid比当前的大,使用n进行提议更新
                            if(this.totalOrderPredicate(n.leader, n.zxid, n.peerEpoch, this.getInitId(), this.getInitLastLoggedZxid(), this.getPeerEpoch())) {
                                this.updateProposal(n.leader, n.zxid, n.peerEpoch);
                            } else {
                                this.updateProposal(this.getInitId(), this.getInitLastLoggedZxid(), this.getPeerEpoch());
                            }

                            this.sendNotifications();
                        } else {
                            if(n.electionEpoch < this.logicalclock.get()) {
                                if(LOG.isDebugEnabled()) {
                                    LOG.debug("Notification election epoch is smaller than logicalclock. n.electionEpoch = 0x" + Long.toHexString(n.electionEpoch) + ", logicalclock=0x" + Long.toHexString(this.logicalclock.get()));
                                }
                                break;
                            }

                            if(this.totalOrderPredicate(n.leader, n.zxid, n.peerEpoch, this.proposedLeader, this.proposedZxid, this.proposedEpoch)) {
                                this.updateProposal(n.leader, n.zxid, n.peerEpoch);
                                this.sendNotifications();
                            }
                        }

                        if(LOG.isDebugEnabled()) {
                            LOG.debug("Adding vote: from=" + n.sid + ", proposed leader=" + n.leader + ", proposed zxid=0x" + Long.toHexString(n.zxid) + ", proposed election epoch=0x" + Long.toHexString(n.electionEpoch));
                        }

                        recvset.put(Long.valueOf(n.sid), new Vote(n.leader, n.zxid, n.electionEpoch, n.peerEpoch));
                        if(!this.termPredicate(recvset, new Vote(this.proposedLeader, this.proposedZxid, this.logicalclock.get(), this.proposedEpoch))) {
                            break;
                        }

                        while((n = (FastLeaderElection.Notification)this.recvqueue.poll(200L, TimeUnit.MILLISECONDS)) != null) {
                            if(this.totalOrderPredicate(n.leader, n.zxid, n.peerEpoch, this.proposedLeader, this.proposedZxid, this.proposedEpoch)) {
                                this.recvqueue.put(n);
                                break;
                            }
                        }

                        if(n == null) {
                            this.self.setPeerState(this.proposedLeader == this.self.getId()?ServerState.LEADING:this.learningState());
                            e = new Vote(this.proposedLeader, this.proposedZxid, this.logicalclock.get(), this.proposedEpoch);
                            this.leaveInstance(e);
                            var6 = e;
                            return var6;
                        }
                        break;
                    case 2:
                        LOG.debug("Notification from observer: " + n.sid);
                        break;
                    case 3:
                    case 4:
                        if(n.electionEpoch == this.logicalclock.get()) {
                            recvset.put(Long.valueOf(n.sid), new Vote(n.leader, n.zxid, n.electionEpoch, n.peerEpoch));
                            if(this.ooePredicate(recvset, outofelection, n)) {
                                this.self.setPeerState(n.leader == this.self.getId()?ServerState.LEADING:this.learningState());
                                e = new Vote(n.leader, n.zxid, n.electionEpoch, n.peerEpoch);
                                this.leaveInstance(e);
                                var6 = e;
                                return var6;
                            }
                        }

                        outofelection.put(Long.valueOf(n.sid), new Vote(n.version, n.leader, n.zxid, n.electionEpoch, n.peerEpoch, n.state));
                        if(this.ooePredicate(outofelection, outofelection, n)) {
                            synchronized(this) {
                                this.logicalclock.set(n.electionEpoch);
                                this.self.setPeerState(n.leader == this.self.getId()?ServerState.LEADING:this.learningState());
                            }

                            e = new Vote(n.leader, n.zxid, n.electionEpoch, n.peerEpoch);
                            this.leaveInstance(e);
                            var6 = e;
                            return var6;
                        }
                        break;
                    default:
                        LOG.warn("Notification state unrecognized: {} (n.state), {} (n.sid)", n.state, Long.valueOf(n.sid));
                    }
                } else {
                    if(!this.validVoter(n.leader)) {
                        LOG.warn("Ignoring notification for non-cluster member sid {} from sid {}", Long.valueOf(n.leader), Long.valueOf(n.sid));
                    }

                    if(!this.validVoter(n.sid)) {
                        LOG.warn("Ignoring notification for sid {} from non-quorum member sid {}", Long.valueOf(n.leader), Long.valueOf(n.sid));
                    }
                }
            }

            n = null;
            return n;
        } finally {
            try {
                if(this.self.jmxLeaderElectionBean != null) {
                    MBeanRegistry.getInstance().unregister(this.self.jmxLeaderElectionBean);
                }
            } catch (Exception var20) {
                LOG.warn("Failed to unregister with JMX", var20);
            }

            this.self.jmxLeaderElectionBean = null;
            LOG.debug("Number of connection processing threads: {}", Long.valueOf(this.manager.getConnectionThreadCount()));
        }
    }

画出流程图:(待画出)

Zookeeper工作原理

前面铺垫了那么多的知识,就是为了能够更好的说清zookeeper原理,zookeeper原理可以分几个点

  1. zookeeper的核心是原子广播,这个机制保证了各个server之间的同步。实现这个机制的协议为Zab协议,Zab协议有两种模式,她们分别是恢复模式和广播模式
  2. 当服务启动或者在领导者崩溃后,Zab就进入恢复模式,当领导者被选举出来,且大多数server完成了和leader的状态同步后,恢复模式就结束了
  3. 状态同步保证了leader和server具有相同的状态
  4. 一旦leader已经和多数follower进入了状态同步后,他就可以开始广播消息了,即进入广播状态。这时候一个server加入zookeeper服务中,它会在恢复模式下启动,发现leader,并和leader进入状态同步,待到结束后,它也参与消息广播。zookeeper服务一直维持在broadcast状态,知道leader崩溃了或者leader失去了大部分的followers支持
  5. 广播模式需要保证proposal被按顺序处理,因为zookeeper采用了递增的事务id号(Zxid)来保证。所有的提议(proposal)都在被提出烦人低吼加上了Zxid
  6. 实现中Zxid是一个64位的数字,高32位用来记录leader的epoch号,每次选出一个leader都会出现一个新的epoch。低32位是个递增计数。
  7. 当leader崩溃或者leader失去大多数的follower,这个时候zookeeper进入恢复模式,恢复模式需要重新选举出一个新的leader,让所有的server都恢复到一个正确的状态。

Znode有四种形式的目录节点

  • PERSISTENT:持久节点
  • EPHEMERAL:临时节点
  • PRESISTENT_SEQUENTIAL:持久化顺序编号目录节点
  • EPHEMERAL_SEQUENTIAL:临时化顺序编号目录节点

  1. ZAB协议参考地址 ↩︎