Zookeeper
Zookeeper
Zookeeper 概述
Zookeeper: 开源的分布式 Apache 项目, 为分布式框架提供协调服务。
zookeeper 工作机制
Zookeeper从设计模式角度来理解:是一个基于观察者模式设计的分布式服务管理框架, 它负责存储和管理大家都关心的数据, 然后接受观察者的注册, 一旦这些数据的状态发生变化, Zookeeper就将负责通知已经在Zookeeper上注册的那些观察者做出相应的反应。
Zookeeper 特点
- Zookeeper:一个领导者(Leader) , 多个跟随者(Follower) 组成的集群。
- 集群中只要有半数以上节点存活, Zookeeper集群就能正常服务。 所以Zookeeper适合安装奇数台服务器。
- 全局数据一致:每个Server保存一份相同的数据副本, Client无论连接到哪个Server, 数据都是一致的。
- 更新请求顺序执行, 来自同一个Client的更新请求按其发送顺序依次执行。
- 数据更新原子性, 一次数据更新要么成功, 要么失败。
- 实时性, 在一定时间范围内, Client能读到最新数据。
数据结构
ZooKeeper 数据模型的结构与 Unix 文件系统很类似,整体上可以看作是一棵树,每个节点称做一个 ZNode。每一个 ZNode 默认能够存储 1MB 的数据,每个 ZNode 都可以通过其路径唯一标识。
应用场景
提供的服务包括:统一命名服务、统一配置管理、统一集群管理、服务器节点动态上下线、软负载均衡等。
统一命名服务
在分布式环境下, 经常需要对应用/服务进行统一命名, 便于识别。
例如: IP不容易记住, 而域名容易记住。
统一配置管理
- 分布式环境下, 配置文件同步非常常见。
- 一般要求一个集群中, 所有节点的配置信息是一致的, 比如 Kafka 集群。
- 对配置文件修改后, 希望能够快速同步到各个节点上。
配置管理可交由ZooKeeper实现。
- 可将配置信息写入ZooKeeper上的一个Znode。
- 各个客户端服务器监听这个Znode。
- 一旦Znode中的数据被修改, ZooKeeper将通知
各个客户端服务器。
统一集群管理
分布式环境中, 实时掌握每个节点的状态是必要的。
可根据节点实时状态做出一些调整。
ZooKeeper可以实现实时监控节点状态变化
- 可将节点信息写入ZooKeeper上的一个ZNode。
- 监听这个ZNode可获取它的实时状态变化。
服务器动态上下线
软负载均衡
在Zookeeper中记录每台服务器的访问数, 让访问数最少的服务器去处理最新的客户端请求
配置参数
tickTime = 2000: 通信心跳时间, Zookeeper服务器与客户端心跳时间,单位毫秒
initLimit = 10: LF初始通信时限
Leader和Follower初始连接时能容忍的最多心跳数(tickTime的数量)
syncLimit = 5: LF同步通信时限
Leader和Follower之间通信时间如果超过syncLimit * tickTime, Leader认为Follwer死掉,从服务器列表中删除Follwer。
dataDir: 保存Zookeeper中的数据
注意: 默认的tmp目录,容易被Linux系统定期删除,所以一般不用默认的tmp目录。
clientPort = 2181:客户端连接端口,通常不做修改。
选举机制(重点)
Zookeeper选举机制——第一次启动
SID: 服务器ID。 用来唯一标识一台ZooKeeper集群中的机器,每台机器不能重复, 和myid一致。
ZXID:事务ID。 ZXID是一个事务ID,用来标识一次服务器状态的变更。 在某一时刻,集群中的每台机器的ZXID值不一定完全一致,这和ZooKeeper服务器对于客户端“更新请求”的处理逻辑有关。
Epoch: 每个Leader任期的代号。没有Leader时同一轮投票过程中的逻辑时钟值是相同的。每投完一次票这个数据就会增加
过程
- 服务器1启动, 发起一次选举。 服务器1投自己一票。 此时服务器1票数一票, 不够半数以上( 3票) , 选举无法完成, 服务器1状态保持为 LOOKING;
- 服务器2启动, 再发起一次选举。 服务器1和2分别投自己一票并交换选票信息: 此时服务器1发现服务器2的myid比自己目前投票推举的(服务器1)大, 更改选票为推举服务器2。 此时服务器1票数0票, 服务器2票数2票, 没有半数以上结果, 选举无法完成, 服务器1, 2状态保持 LOOKING
- 服务器3启动, 发起一次选举。 此时服务器1和2都会更改选票为服务器3。 此次投票结果:服务器1为0票, 服务器2为0票, 服务器3为3票。 此时服务器3的票数已经超过半数, 服务器3当选Leader。 服务器1, 2更改状态为 FOLLOWING, 服务器3更改状态为 LEADING;
- 服务器4启动, 发起一次选举。 此时服务器1, 2, 3已经不是LOOKING状态, 不会更改选票信息。 交换选票信息结果:服务器3为3票, 服务器4为1票。 此时服务器4服从多数, 更改选票信息为服务器3, 并更改状态为 FOLLOWING;
- 服务器5启动, 同4一样当 FOLLOWING。
Zookeeper选举机制——非第一次启动
当ZooKeeper集群中的一台服务器出现以下两种情况之一时, 就会开始进入Leader选举:
- 服务器初始化启动
- 服务器运行期间无法和Leader保持连接。
而当一台机器进入Leader选举流程时,当前集群也可能会处于以下两种状态:
集群中本来就已经存在一个Leader。
对于第一种已经存在Leader的情况,机器试图去选举Leader时,会被告知当前服务器的Leader信息,对于该机器来说,仅仅需要和Leader机器建立连接,并进行状态同步即可。
集群中确实不存在 Leader。
假设ZooKeeper由5台服务器组成, SID分别为1、 2、 3、 4、 5, ZXID分别为8、 8、 8、 7、 7,并且此时SID为3的服务器是Leader。某一时刻,3和5服务器出现故障,因此开始进行Leader选举。
SID ( Epoch, ZXID, SID ) 1 ( 1, 8, 1 ) 2 ( 1, 8, 2 ) 4 ( 1, 7, 4 ) 选举Leader规则:
①EPOCH大的直接胜出
②EPOCH相同,事务id大的胜出
③事务id相同,服务器id大的胜出
客户端命令行操作
ZK 集群启动停止脚本
1 |
|
命令行语法
命令基本语法 | 功能描述 |
---|---|
help | 显示所有操作命令 |
ls path | 使用 ls 命令来查看当前 znode 的子节点 [可监听]: -w 监听子节点变化 -s 附加次级信息 |
create | 普通创建 -s 含有序列 -e 临时(重启或者超时消失) |
get path | 获得节点的值 [可监听] -w 监听节点内容变化 -s 附加次级信息 |
set | 设置节点的具体值 |
stat | 查看节点状态 |
delete | 删除节点 |
deleteall | 递归删除节点 |
查看当前节点详细数据
1 |
|
czxid: 创建节点的事务 zxid
每次修改 ZooKeeper 状态都会产生一个 ZooKeeper 事务 ID。事务 ID 是 ZooKeeper 中所有修改总的次序。每次修改都有唯一的 zxid,如果 zxid1 小于 zxid2,那么 zxid1 在 zxid2 之前发生。
ctime: znode 被创建的毫秒数(从 1970 年开始)
mzxid: znode 最后更新的事务 zxid
mtime: znode 最后修改的毫秒数(从 1970 年开始)
pZxid: znode 最后更新的子节点 zxid
cversion: znode 子节点变化号, znode 子节点修改次数
dataversion: znode 数据变化号
aclVersion: znode 访问控制列表的变化号
ephemeralOwner: 如果是临时节点,这个是 znode 拥有者的 session id。如果不是临时节点则是 0。
dataLength: znode 的数据长度
numChildren: znode 子节点数量
节点类型(持久/短暂/有序号/无序号)
持久(Persistent) :客户端和服务器端断开连接后, 创建的节点不删除
短暂(Ephemeral) :客户端和服务器端断开连接后, 创建的节点自己删除
说明:创建 znode 时设置顺序标识, znode名称后会附加一个值, 顺序号是一个单调递增的计数器, 由父节点维护
注意:在分布式系统中, 顺序号可以被用于为所有的事件进行全局排序, 这样客户端可以通过顺序号推断事件的顺序
持久化目录节点
客户端与Zookeeper断开连接后, 该节点依旧存在
持久化顺序编号目录节点
客户端与Zookeeper断开连接后, 该节点依旧存在, 只是Zookeeper给该节点名称进行顺序编号
临时目录节点
客户端与Zookeeper断开连接后, 该节点被删除
临时顺序编号目录节点
客 户 端 与 Zookeeper 断 开 连 接 后 , 该 节 点 被 删 除 , 只 是Zookeeper给该节点名称进行顺序编号。
例如:(创建带序号的节点(永久节点 + 带序号) )
1 |
|
如果原来没有序号节点,序号从 0 开始依次递增。 如果原节点下已有 2 个节点,则再排序时从 2 开始,以此类推。
监听器原理
客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、节点删除、子目录节点增加删除)时, ZooKeeper 会通知客户端。监听机制保证 ZooKeeper 保存的任何的数据的任何改变都能快速的响应到监听了该节点的应用程序。
监听器原理
- 首先要有一个main()线程
- 在main线程中创建Zookeeper客户端, 这时就会创建两个线程, 一个负责网络连接通信(connet) , 一个负责监听(listener) 。
- 通过connect线程将注册的监听事件发送给Zookeeper。
- 在Zookeeper的注册监听器列表中将注册的监听事件添加到列表中。
- Zookeeper监听到有数据或路径变化, 就会将这个消息发送给listener线程。
- listener线程内部调用了process()方法。
常见监听
- 监听节点数据的变化:get path[watch]
- 监听子节点增减的变化:ls path[watch]
例子:
节点的值变化监听
在 hadoop104 主机上注册监听/sanguo 节点数据变化
[zk: localhost:2181(CONNECTED) 26] get -w /sanguo
在 hadoop103 主机上修改/sanguo 节点的数据
[zk: localhost:2181(CONNECTED) 1] set /sanguo “xisi”
观察 hadoop104 主机收到数据变化的监听
1
2
3WATCHER::
WatchedEvent state:SyncConnected type:NodeDataChanged
path:/sanguo
注意:在hadoop103再多次修改/sanguo的值, hadoop104上不会再收到监听。因为注册
一次,只能监听一次。想再次监听,需要再次注册。节点的子节点变化监听(路径变化)
在 hadoop104 主机上注册监听/sanguo 节点的子节点变化
[zk: localhost:2181(CONNECTED) 1] ls -w /sanguo
[shuguo, weiguo]在 hadoop103 主机/sanguo 节点上创建子节点
[zk: localhost:2181(CONNECTED) 2] create /sanguo/jin “simayi”
Created /sanguo/jin观察 hadoop104 主机收到子节点变化的监听
1
2
3WATCHER::
WatchedEvent state:SyncConnected type:NodeChildrenChanged
path:/sanguo注意: 节点的路径变化,也是注册一次,生效一次。想多次生效,就需要多次注册。
客户端向服务端写数据流程
写流程之写入请求直接发送给Leader节点
写流程之写入请求发送给follower节点
ZooKeeper 分布式锁案例
什么叫做分布式锁呢?
比如说”进程 1”在使用该资源的时候,会先去获得锁, “进程 1”获得锁以后会对该资源保持独占,这样其他进程就无法访问该资源, “进程 1”用完该资源以后就将锁释放掉,让其他进程来获得锁,那么通过这个锁机制,我们就能保证了分布式系统中多个进程能够有序的访问该临界资源。那么我们把这个分布式环境下的这个锁叫作分布式锁。
- 接收到请求后,在 /locks 节点下创建一个临时的顺序节点
- 判断自己是不是当前节点下最小的节点:是,获取到锁;不是,对前一个节点进行监听。
- 获取到锁,处理完业务之后,delete 节点释放锁,然后下面的节点将收到通知,重复第二步判断。
原生 Zookeeper 实现分布式锁案例
分布式锁实现
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97package com.test.lock1;
import org.apache.zookeeper.*;
import org.apache.zookeeper.data.Stat;
import java.io.IOException;
import java.util.Collections;
import java.util.List;
import java.util.concurrent.CountDownLatch;
public class DistributedLock {
// zookeeper server 列表
private String connectString = "hadoop102:2181,hadoop103:2181,hadoop104:2181";
// 超时时间
private int sessionTimeout = 2000;
private ZooKeeper zk;
private String rootNode = "locks";
private String subNode = "seq-";
// 当前 client 等待的子节点
private String waitPath;
//ZooKeeper 连接
private CountDownLatch connectLatch = new CountDownLatch(1);
//ZooKeeper 节点等待
private CountDownLatch waitLatch = new CountDownLatch(1);
// 当前 client 创建的子节点
private String currentNode;
// 和 zk 服务建立连接,并创建根节点
public DistributedLock() throws IOException, InterruptedException, KeeperException {
zk = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
@Override
public void process(WatchedEvent event) {
// 连接建立时, 打开 latch, 唤醒 wait 在该 latch 上的线程
if (event.getState() == Event.KeeperState.SyncConnected) {
connectLatch.countDown();
}
// 发生了 waitPath 的删除事件
if (event.getType() == Event.EventType.NodeDeleted && event.getPath().equals(waitPath)){
waitLatch.countDown();
}
}
});
// 等待连接建立
connectLatch.await();
//获取根节点状态
Stat stat = zk.exists("/" + rootNode, false);
//如果根节点不存在,则创建根节点,根节点类型为永久节点
if (stat == null) {
System.out.println("根节点不存在");
zk.create("/" + rootNode, new byte[0], ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
}
}
// 加锁方法
public void zkLock() {
try {
//在根节点下创建临时顺序节点,返回值为创建的节点路径
currentNode = zk.create("/" + rootNode + "/" + subNode, null, ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL_SEQUENTIAL);
// wait 一小会, 让结果更清晰一些
Thread.sleep(10);
// 注意, 没有必要监听"/locks"的子节点的变化情况
List<String> childrenNodes = zk.getChildren("/" + rootNode, false);
// 列表中只有一个子节点, 那肯定就是 currentNode , 说明client 获得锁
if (childrenNodes.size() == 1) {
return;
} else {
//对根节点下的所有临时顺序节点进行从小到大排序
Collections.sort(childrenNodes);
//当前节点名称
String thisNode = currentNode.substring(("/" + rootNode + "/").length());
//获取当前节点的位置
int index = childrenNodes.indexOf(thisNode);
if (index == -1) {
System.out.println("数据异常");
} else if (index == 0) {
// index == 0, 说明 thisNode 在列表中最小, 当前client 获得锁
return;
} else {
// 获得排名比 currentNode 前 1 位的节点
this.waitPath = "/" + rootNode + "/" + childrenNodes.get(index - 1);
// 在 waitPath 上注册监听器, 当 waitPath 被删除时, zookeeper 会回调监听器的 process 方法
zk.getData(waitPath, true, new Stat());
//进入等待锁状态
waitLatch.await();
return;
}
}
} catch (KeeperException e) {
e.printStackTrace();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
// 解锁方法
public void zkUnlock() {
try {
zk.delete(this.currentNode, -1);
} catch (InterruptedException | KeeperException e) {
e.printStackTrace();
}
}
}分布式锁测试
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42package com.test.lock1;
import org.apache.zookeeper.KeeperException;
import java.io.IOException;
public class DistributedLockTest {
public static void main(String[] args) throws InterruptedException, IOException, KeeperException {
// 创建分布式锁 1
final DistributedLock lock1 = new DistributedLock();
// 创建分布式锁 2
final DistributedLock lock2 = new DistributedLock();
new Thread(new Runnable() {
@Override
public void run() {
// 获取锁对象
try {
lock1.zkLock();
System.out.println("线程 1 获取锁");
Thread.sleep(5 * 1000);
lock1.zkUnlock();
System.out.println("线程 1 释放锁");
} catch (Exception e) {
e.printStackTrace();
}
}
}).start();
new Thread(new Runnable() {
@Override
public void run() {
// 获取锁对象
try {
lock2.zkLock();
System.out.println("线程 2 获取锁");
Thread.sleep(5 * 1000);
lock2.zkUnlock();
System.out.println("线程 2 释放锁");
} catch (Exception e) {
e.printStackTrace();
}
}
}).start();
}
}观察控制台变化:
线程 1 获取锁
线程 1 释放锁
线程 2 获取锁
线程 2 释放锁
企业面试真题(面试重点)
选举机制
半数机制,超过半数的投票通过,即通过。
第一次启动选举规则:
投票过半数时, 服务器 id 大的胜出
第二次启动选举规则:
①EPOCH 大的直接胜出
②EPOCH 相同,事务 id 大的胜出
③事务 id 相同,服务器 id 大的胜出
生产集群安装多少 zk 合适?
安装奇数台。
生产经验:
10 台服务器: 3 台 zk;
20 台服务器: 5 台 zk;
100 台服务器: 11 台 zk;
200 台服务器: 11 台 zk
服务器台数多:好处,提高可靠性;坏处:提高通信延时
常用命令
ls、 get、 create、 delete
Paxos 算法
CAP
CAP理论告诉我们, 一个分布式系统不可能同时满足以下三种 :
一致性(C:Consistency)
可用性(A:Available)
分区容错性( P:Partition Tolerance)
这三个基本需求, 最多只能同时满足其中的两项, 因为P是必须的, 因此往往选择就在CP或者AP中。
一致性( C:Consistency)
在分布式环境中, 一致性是指数据在多个副本之间是否能够保持数据一致的特性。 在一致性的需求下, 当一个系统在数据一致的状态下执行更新操作后, 应该保证系统的数据仍然处于一致的状态。
可用性(A:Available)
可用性是指系统提供的服务必须一直处于可用的状态, 对于用户的每一个操作请求总是能够在有限的时间内返回结果。
分区容错性( P:Partition Tolerance)
分布式系统在遇到任何网络分区故障的时候, 仍然需要能够保证对外提供满足一致性和可用性的服务, 除非是整个网络环境都发生了故障。
ZooKeeper保证的是CP
ZooKeeper不能保证每次服务请求的可用性
在极端环境下, ZooKeeper可能会丢弃一些请求, 消费者程序需要重新请求才能获得结果) 。 所以说, ZooKeeper不能保证服务可用性。
进行Leader选举时集群都是不可用
Paxos 算法
拜占庭将军问题
拜占庭将军问题是一个协议问题, 拜占庭帝国军队的将军们必须全体一致的决定是否攻击某一支敌军。 问题是这些将军在地理上是分隔开来的, 并且将军中存在叛徒。 叛徒可以任意行动以达到以下目标: 欺骗某些将军采取进攻行动; 促成一个不是所有将军都同意的决定, 如当将军们不希望进攻时促成进攻行动; 或者迷惑某些将军, 使他们无法做出决定。 如果叛徒达到了这些目的之一, 则任何攻击行动的结果都是注定要失败的, 只有完全达成一致的努力才能获得胜利。
Paxos算法: 一种基于消息传递且具有高度容错特性的一致性算法。
Paxos算法解决的问题: 就是如何快速正确的在一个分布式系统中对某个数据值达成一致,并且保证不论发生任何异常(如机器宕机,网络异常(延迟,重复,丢失)),都不会破坏整个系统(节点可能分布于不同地区,机房,机架)的一致性。
Paxos 算法描述
在一个Paxos系统中,首先将所有节点划分为 Proposer(提议者) , Acceptor(接受者) ,和 Learner(学习者) 。(注意:每个节点都可以身兼数职)。
一个完整的Paxos算法流程分为三个阶段:
Prepare准备阶段 :
- Proposer向多个Acceptor发出Propose请求Promise(承诺)
- Acceptor针对收到的Propose请求进行Promise(承诺)
Accept接受阶段 :
- Proposer收到多数Acceptor承诺的Promise后,向Acceptor发出Propose请求
- Acceptor针对收到的Propose请求进行Accept处理
Learn 学习阶段: Proposer将形成的决议发送给所有Learners
Prepare: Proposer生成全局唯一且递增的Proposal ID, 向所有Acceptor发送Propose请求, 这里无需携带提案内容, 只携带Proposal ID即可。
Promise: Acceptor收到Propose请求后, 做出“两个承诺, 一个应答” 。
- 不再接受Proposal ID小于等于(注意:这里是<= ) 当前请求的Propose请求。
- 不再接受Proposal ID小于(注意:这里是< ) 当前请求的Accept请求。
- 不违背以前做出的承诺下, 回复已经Accept过的提案中 Proposal ID 最大的那个提案的 Value 和 Proposal ID , 没有则返回空值。
Propose: Proposer 收到多数 Acceptor 的 Promise 应答后, 从应答中选择 Proposal ID 最大的提案的 Value , 作为本次要发起的提案。 如果所有应答的提案 Value 均为空值, 则可以自己随意决定提案 Value。 然后携带当前 Proposal ID, 向所有 Acceptor 发送 Propose 请求。
Accept: Acceptor 收到 Propose 请求后, 在不违背自己之前做出的承诺下, 接受并持久化当前 Proposal ID 和提案 Value。
Learn: Proposer 收到多数 Acceptor 的 Accept 后, 决议形成, 将形成的决议发送给所有 Learner。
情况 1
- A1发起1号 Proposal 的 Propose,等待 Promise 承诺;
- A2-A5回应Promise;
- A1在收到两份回复时就会发起税率10%的Proposal;
- A2-A5回应Accept;
- 通过Proposal,税率10%。
情况 2
- A1, A5同时发起Propose(序号分别为1, 2)
- A2承诺A1, A4承诺A5, A3行为成为关键
- 情况1: A3先收到A1消息,承诺A1。
- A1发起Proposal(1, 10%), A2, A3接受。
- 之后A3又收到A5消息, 回复A1: (1, 10%),并承诺A5。
- A5发起Proposal(2, 20%), A3, A4接受。之后A1, A5同时广播决议。
Paxos 算法缺陷:在网络复杂的情况下,一个应用 Paxos 算法的分布式系统,可能很久无法收敛,甚至陷入活锁的情况。
情况 3:
- A1, A5同时发起Propose(序号分别为1, 2)
- A2承诺A1, A4承诺A5, A3行为成为关键
- 情况2: A3先收到A1消息,承诺A1。之后立刻收到A5消息,承诺A5。
- A1发起Proposal(1, 10%),无足够响应, A1重新Propose (序号3), A3再次承诺A1。
- A5发起Proposal(2, 20%),无足够相应。 A5重新Propose (序号4), A3再次承诺A5。
- …
造成这种情况的原因是系统中有一个以上的 Proposer,多个 Proposers 相互争夺 Acceptor,造成迟迟无法达成一致的情况。 针对这种情况,一种改进的 Paxos 算法被提出:从系统中选出一个节点作为 Leader,只有 Leader 能够发起提案。 这样,一次 Paxos 流程中只有一个Proposer,不会出现活锁的情况,此时只会出现例子中第一种情况。
ZAB 协议
ZAB 算法
Zab 借鉴了 Paxos 算法,是特别为 Zookeeper 设计的支持崩溃恢复的原子广播协议。基于该协议, Zookeeper 设计为只有一台客户端(Leader)负责处理外部的写事务请求,然后Leader 客户端将数据同步到其他 Follower 节点。 即 Zookeeper 只有一个 Leader 可以发起提案。
Zab 协议内容
Zab 协议包括两种基本的模式: 消息广播、 崩溃恢复。
消息广播
- 客户端发起一个写操作请求。
- Leader服务器将客户端的请求转化为事务Proposal 提案, 同时为每个Proposal 分配一个全局的ID, 即zxid。
- Leader服务器为每个Follower服务器分配一个单独的队列, 然后将需要广播的 Proposal依次放到队列中去, 并且根据FIFO策略进行消息发送。
- Follower接收到Proposal后, 会首先将其以事务日志的方式写入本地磁盘中, 写入成功后向Leader反馈一个Ack响应消息。
- Leader接收到超过半数以上Follower的Ack响应消息后, 即认为消息发送成功, 可以发送commit消息。
- Leader向所有Follower广播commit消息, 同时自身也会完成事务提交。 Follower 接收到commit消息后, 会将上一条事务提交。
- Zookeeper采用Zab协议的核心, 就是只要有一台服务器提交了Proposal, 就要确保所有的服务器最终都能正确提交Proposal。
ZAB协议针对事务请求的处理过程类似于一个两阶段提交过程
- 广播事务阶段
- 广播提交操作
这两阶段提交模型如下, 有可能因为Leader宕机带来数据不一致, 比如
- Leader 发起一个事务 Proposal1 后就宕机 , Follower 都没有 Proposal1
- Leader 收到半数ACK宕机,没来得及向Follower发送Commit
怎么解决呢? ZAB引入了崩溃恢复模式。
崩溃恢复
异常假设
一旦Leader服务器出现崩溃或者由于网络原因导致Leader服务器失去了与过半 Follower的联系,那么就会进入崩溃恢复模式。
假设两种服务器异常情况:
- 假设一个事务在Leader提出之后, Leader挂了。
- 一个事务在Leader上提交了, 并且过半的Follower都响应Ack了, 但是Leader在Commit消息发出之前挂了。
Zab协议崩溃恢复要求满足以下两个要求:
- 确保已经被Leader提交的提案Proposal, 必须最终被所有的Follower服务器提交。 (已经产生的提案, Follower必须执行)
- 确保丢弃已经被Leader提出的, 但是没有被提交的Proposal。 (丢弃胎死腹中的提案)
Leader选举
崩溃恢复主要包括两部分: Leader选举和数据恢复。
Leader选举:
根据上述要求, Zab协议需要保证选举出来的Leader需要满足以下条件:
- 新选举出来的Leader不能包含未提交的Proposal。 即新Leader必须都是已经提交了Proposal的Follower服务器节点。
- 新选举的Leader节点中含有最大的zxid。 这样做的好处是可以避免Leader服务器检查Proposal的提交和丢弃工作。
Zab如何数据同步:
- 完成Leader选举后, 在正式开始工作之前(接收事务请求, 然后提出新的Proposal) , Leader服务器会首先确认事务日志中的所有的Proposal 是否已经被集群中过半的服务器Commit。
- Leader服务器需要确保所有的Follower服务器能够接收到每一条事务的Proposal, 并且能将所有已经提交的事务Proposal应用到内存数据中。 等到Follower将所有尚未同步的事务Proposal都从Leader服务器上同步过, 并且应用到内存数据中以后,Leader才会把该Follower加入到真正可用的Follower列表中。