16 | ZooKeeper是如何保证数据一致性的?
下载APP
关闭
渠道合作
推荐作者
16 | ZooKeeper是如何保证数据一致性的?
2018-12-04 李智慧 来自北京
《从0开始学大数据》
课程介绍
讲述:李智慧
时长11:34大小10.57M
你可能还记得,我们在讲 HDFS 和 HBase 架构分析时都提到了 ZooKeeper。在分布式系统里的多台服务器要对数据状态达成一致,其实是一件很有难度和挑战的事情,因为服务器集群环境的软硬件故障随时会发生,多台服务器对一个数据的记录保持一致,需要一些技巧和设计。
这也就是我们今天要讨论的分布式系统一致性与 ZooKeeper 的架构。
在讲分布式系统一致性前,我们先回顾一下 HDFS。HDFS 为了保证整个集群的高可用,需要部署两台 NameNode 服务器,一台作为主服务器,一台作为从服务器。当主服务器不可用的时候,就切换到从服务器上访问。但是如果不同的应用程序(Client)或者 DataNode 做出的关于主服务器是否可用的判断不同,那么就会导致 HDFS 集群混乱。
比如两个应用程序都需要对一个文件路径进行写操作,但是如果两个应用程序对于哪台服务器是主服务器的判断不同,就会分别连接到两个不同的 NameNode 上,并都得到了对同一个文件路径的写操作权限,这样就会引起文件数据冲突,同一个文件指向了两份不同的数据。
这种不同主服务器做出不同的响应,在分布式系统中被称作“脑裂”。光看这个词你也可以看出问题的严重性,这时候集群处于混乱状态,根本无法使用。那我们引入一个专门进行判断的服务器当“裁判”,让“裁判”决定哪个服务器是主服务器不就完事了吗?
但是这个做出判断决策的服务器也有可能会出现故障不可访问,同样整个服务器集群也不能正常运行。所以这个做出判断决策的服务器必须由多台服务器组成,来保证高可用,任意一台服务器宕机都不会影响系统的可用性。
那么问题又来了,这几台做出判断决策的服务器又如何防止“脑裂”,自己不会出现混乱状态呢?有时候真的很无奈,分布式系统设计就像是一个追着自己尾巴咬的喵喵,兜兜转转回到开头。
但是问题必须还要解决,我们比较常用的多台服务器状态一致性的解决方案就是 ZooKeeper。
分布式一致性原理
讲分布式一致性时,相信你肯定多少听过著名的 CAP 原理。CAP 原理认为,一个提供数据服务的分布式系统无法同时满足数据一致性(Consistency)、可用性(Availibility)、分区耐受性(Patition Tolerance)这三个条件,如下图所示。
一致性是说,每次读取的数据都应该是最近写入的数据或者返回一个错误(Every read receives the most recent write or an error),而不是过期数据,也就是说,数据是一致的。
可用性是说,每次请求都应该得到一个响应,而不是返回一个错误或者失去响应,不过这个响应不需要保证数据是最近写入的(Every request receives a (non-error) response, without the guarantee that it contains the most recent write),也就是说系统需要一直都是可以正常使用的,不会引起调用者的异常,但是并不保证响应的数据是最新的。
分区耐受性是说,即使因为网络原因,部分服务器节点之间消息丢失或者延迟了,系统依然应该是可以操作的(The system continues to operate despite an arbitrary number of messages being dropped (or delayed) by the network between nodes)。
当网络分区失效发生的时候,我们要么取消操作,这样数据就是一致的,但是系统却不可用;要么我们继续写入数据,但是数据的一致性就得不到保证。
对于一个分布式系统而言,网络失效一定会发生,也就是说,分区耐受性是必须要保证的,那么在可用性和一致性上就必须二选一。当网络分区失效,也就是网络不可用的时候,如果选择了一致性,系统就可能返回一个错误码或者干脆超时,即系统不可用。如果选择了可用性,那么系统总是可以返回一个数据,但是并不能保证这个数据是最新的。
所以,关于 CAP 原理,更准确的说法是,在分布式系统必须要满足分区耐受性的前提下,可用性和一致性无法同时满足。
ZAB 算法与 ZooKeeper 架构
ZooKeeper 主要提供数据的一致性服务,其实现分布式系统的状态一致性依赖一个叫 Paxos 的算法。Paxos 算法在多台服务器通过内部的投票表决机制决定一个数据的更新与写入。Paxos 的基本思路请看下面的图。
应用程序连接到任意一台服务器后提起状态修改请求(也可以是获得某个状态锁的请求),从图上看也就是服务器 1,会将这个请求发送给集群中其他服务器进行表决。如果某个服务器同时收到了另一个应用程序同样的修改请求,它可能会拒绝服务器 1 的表决,并且自己也发起一个同样的表决请求,那么其他服务器就会根据时间戳和服务器排序规则进行表决。
表决结果会发送给其他所有服务器,最终发起表决的服务器也就是服务器 1,会根据收到的表决结果决定该修改请求是否可以执行,事实上,只有在收到多数表决同意的情况下才会决定执行。当有多个请求同时修改某个数据的情况下,服务器的表决机制保证只有一个请求会通过执行,从而保证了数据的一致性。
Paxos 算法有点过于复杂、实现难度也比较高,所以 ZooKeeper 在编程实现的时候将其简化成了一种叫做 ZAB 的算法(Zookeeper Atomic Broadcast, Zookeeper 原子广播)。
ZAB 算法的目的,同样是在多台服务器之间达成一致,保证这些服务器上存储的数据是一致的。ZAB 算法的主要特点在于:需要在这些服务器中选举一个 Leader,所有的写请求都必须提交给 Leader。由 Leader 服务器向其他服务器(Follower)发起 Propose,通知所有服务器:我们要完成一个写操作请求,大家检查自己的数据状态,是否有问题。
如果所有 Follower 服务器都回复 Leader 服务器 ACK,即没有问题,那么 Leader 服务器会向所有 Follower 发送 Commit 命令,要求所有服务器完成写操作。这样包括 Leader 服务器在内的所有 ZooKeeper 集群服务器的数据,就都更新并保持一致了。如果有两个客户端程序同时请求修改同一个数据,因为必须要经过 Leader 的审核,而 Leader 只接受其中一个请求,数据也会保持一致。
在实际应用中,客户端程序可以连接任意一个 Follower,进行数据读写操作。如果是写操作,那么这个请求会被这个 Follower 发送给 Leader,进行如上所述的处理;如果是读操作,因为所有服务器的数据都是一致的,那么这个 Follower 直接返回自己本地的数据给客户端就可以了。
ZooKeeper 通过一种树状结构记录数据,如下图所示。
应用程序可以通过路径的方式访问 ZooKeeper 中的数据,比如 /services/YaView/services/stupidname 这样的路径方式修改、读取数据。ZooKeeper 还支持监听模式,当数据发生改变的时候,通知应用程序。
因为大数据系统通常都是主从架构,主服务器管理集群的状态和元信息(meta-info),为了保证集群状态一致防止“脑裂”,所以运行期只能有一个主服务器工作(active master),但是为了保证高可用,必须有另一个主服务器保持热备(standby master)。那么应用程序和集群其他服务器如何才能知道当前哪个服务器是实际工作的主服务器呢?
所以很多大数据系统都依赖 ZooKeeper 提供的一致性数据服务,用于选举集群当前工作的主服务器。一台主服务器启动后向 ZooKeeper 注册自己为当前工作的主服务器,而另一台服务器就只能成为热备主服务器,应用程序运行期都和当前工作的主服务器通信。
如果当前工作的主服务器宕机(在 ZooKeeper 上记录的心跳数据不再更新),热备主服务器通过 ZooKeeper 的监控机制发现当前工作的主服务器宕机,就向 ZooKeeper 注册自己成为当前工作的主服务器。应用程序和集群其他服务器跟新的主服务器通信,保证系统正常运行。
利用 ZooKeeper 选主服务器的伪代码如下:
使用 ZooKeeper 提供的 API 接口,代码非常简单。所有要选举成为主服务器的服务器在启动的时候都在自己的服务器上执行上面这段伪代码的逻辑,其中的 getdata、create 会连接到 ZooKeeper 集群去处理。但是根据 ZAB 算法,只有一个服务器能将自己的 hostname 写入到 ZooKeeper 的主服务器路径 /servers/leader 中,保证集群只有一个主服务器。
而成功成为主服务器的服务器在创建 /servers/leader 路径的时候,已指定当前路径为 EPHEMERAL,即临时路径。如果当前的主服务器宕机,那么该服务器和 ZooKeeper 的长连接也就中断了,ZooKeeper 据此判断该服务器宕机,删除这个路径。其他监听这个路径的服务器(即在伪代码 1 中,第二个参数设置为 true)就会收到通知,所有服务器重新执行以上的伪代码,重新选举出新的、唯一的主服务器。
此外,说到 ZooKeeper 的性能,因为 ZooKeeper 系统的多台服务器存储相同数据,并且每次数据更新都要所有服务器投票表决,所以和一般的分布式系统相反,ZooKeeper 集群的写操作性能会随着服务器数量的增加而下降。
ZooKeeper 通过 ZAB 算法实现数据一致性,并为各种大数据系统提供主服务器选举服务。虽然 ZooKeeper 并没有什么特别强大的功能,但是在各类分布式系统和大数据系统中,ZooKeeper 的出镜率非常高,因此也是很多系统的基础设施。
小结
如果我们单独看大数据和分布式系统的很多解决方案,如果不把它们放在大规模数据和大规模服务器集群的场景下思考,可能会觉得很多问题和方案都很莫名其妙。比如要保证分布式系统中数据的一致性,才诞生了 Paxos、ZAB 这样专门的算法和 ZooKeeper 这样的产品。
Paxos 算法只考虑所有服务器都是可信任的情况。但在分布式系统中还有一类场景,需要考虑当集群中的服务器存在恶意服务器的情况。当这些恶意服务器企图篡改伪造数据,或者传递虚假信息的时候,如何保证系统继续有效运行呢?比如目前非常火的区块链,就需要考虑这种场景。
区块链采取的解决方案是工作量证明。一台服务器要想在分布式集群中记录数据(即所谓分布式记账),必须进行一个规模庞大的计算,比如计算一个 256Bit 的 hash 值,这个值的前若干位必须为 0。比特币区块链就是采用类似这样的工作量证明算法,为了进行这样的 hash 计算,目前比特币区块链消耗的电量相当于一个中等规模国家的用电量。
通过这种工作量证明方式,保证了恶意服务器要想伪造篡改数据,必须拥有强大的计算能力(占整个集群服务器计算能力的 51% 以上),而只要我们认为大多数服务器是善意的,那么这样的区块链分布式集群就是可靠的。
思考题
除了工作量证明,还有什么方法可以保证分布式系统中不可信任的机器无法篡改或伪造数据?
欢迎你写下自己的思考或疑问,与我和其他同学一起讨论。
分享给需要的人,Ta购买本课程,你将得20元
生成海报并分享
赞 10
提建议
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
上一篇
15 | 流式计算的代表:Storm、Flink、Spark Streaming
下一篇
17 | 模块答疑:这么多技术,到底都能用在什么场景里?
精选留言(48)
- 面试官问置顶2018-12-04CAP 定理关注的是对数据的读写操作,而不是分布式系统的所有功能,它要求分布式系统节点间是互相连接且有数据共享的,例如 Memcache 的集群中节点相互间没有连接和数据共享,因此不是 CAP 定理讨论的对象,同理 ZooKeeper 的选举机制也不是 CAP 探讨的对象。 摘自从零开始学架构,大家可以探讨下。展开
作者回复: CAP的P如果按字面意思理解,网络分区容错,应该是A的一种情况,这样对设计没有指导意义,所以在9年前第一次看到CAP原理,我就按分片理解,这样所有的分布式系统就可以解释了,不存在不能探讨的分布式对象。这次专栏发布后,很多同学对P的理解提出质疑,我又查了下资料,确实这种理解比较激进,可能会造成误导,这部分内容已经删除,很抱歉。 memcached和zk是最典型的分布式系统,一个分布式的关键原理不适用于最典型的分布式系统,老实说,很郁闷。
共 2 条评论32 - M2018-12-04P和数据分不分片并没有任何关系吧。在分布式系统中P就是满足的,否则就是单机了。所以一般考虑的是CP和AP,CP是指在网络分区形成(分布式节点之间不能互相通信)的情况下,牺牲可用性,满足一致性,只有等到数据同步完成后才能恢复可用。而AP是指在网络分区形成的情况下,向外部继续提供使用,但是数据可能不一致(因为节点之间不能通信,所有节点的数据可能不一致)19
- shangyu2018-12-04请问老师 对于文中这句话不太理解:“但是 ZooKeeper 系统中所有服务器都存储相同的数据,也就是数据没有分片存储,因此不满足分区耐受性”。zk没有分片但是都存储了相同数据,也就是有冗余备份,一定是要数据有分片才满足P吗14
- 忠厚2018-12-21ZooKeeper 集群的性能会随着服务器数量的增加而下降 这个描述不准确,ZK中有三种角色 leader Follower observer ,而observer不参与投票,增加observer性能上不会有太大损失(在投票通过后leader结点会通知其他所有结点进行数据更新,这个过程是通过广播的形式完成,而且leader并不等待更新的结果)10
- cc_hust2018-12-04个人理解,CAP 中的P跟是否分片存储没有关系。在分布式环境中,P是必选项,需要权衡多副本的一致性和可用性, 单机系统才是放弃了P。共 1 条评论6
- 老范2019-06-10但是 ZooKeeper 系统中所有服务器都存储相同的数据,也就是数据没有分片存储,因此不满足分区耐受性 建议老师修改下上处:我们用 sharding 表示分片,用 partition 表示网络分区,partion tolerance 和 sharding 二者是不同概念,并没有如老师您所述的关系。 在 CAP 理论中,当网络分区发生时,ZK 选择了 Consistence,舍弃了 Availability。展开
作者回复: 谢谢老范
5 - 纯洁的憎恶2018-12-04“CAP 定理关注的是对数据的读写操作,而不是分布式系统的所有功能,它要求分布式系统节点间是互相连接且有数据共享的,例如 Memcache 的集群中节点相互间没有连接和数据共享,因此不是 CAP 定理讨论的对象,同理 ZooKeeper 的选举机制也不是 CAP 探讨的对象。 摘自从零开始学架构,大家可以探讨下。” 有道理!我个人的理解是ZooKeeper本身确实不熟CAP探讨的对象。但是ZooKeeper的很多应用场景,如分布式系统的数据一致性,才是CAP探讨对象。解决问题的钥匙不是问题本身,我理解的对么?展开5
- Jowin2018-12-04zookeeper提供的数据读写服务是cp模型,也就是强一致性。老师这里说的是zookeeper节点间的数据同步模型,如果非要套用cap的话,应该也是cp模型,容忍少于半数的节点故障,一旦多余半数的节点故障,就无法达成一致,系统就不可用性了。共 1 条评论5
- 阿巍-豆夫2018-12-04zk是最终一致性吧,这个没说清楚啊。
作者回复: 强一致,回复client的时候,zk服务器就已经一致了
共 2 条评论6 - Kaer2018-12-04P跟是指网络出现分区,不是数据分区。数据的分区是:shareding共 2 条评论5
- dancer2018-12-04老师,P的释义感觉不是很准确,查了一下维基百科的定义, Partition tolerance: The system continues to operate despite an arbitrary number of messages being dropped (or delayed) by the network between nodes3
- galen2018-12-04如何保证从Zookeep节点中读取的数据,是最新的数据? Zookeep节点可能还在同步数据,当前节点的数据不是最新的数据3
- 工科生小猴子2021-02-16看完这篇文章,我对zookeeper更加疑惑了。又说zookeeper用来保证数据一致性,一会又是选举主服务器,越看越迷惑。还有,zookeeper集群,到底是一个独立的集群,还是大数据业务集群的一个有机组成部分?????
作者回复: 选主要求一致性,不然选出两个主就乱套了,不冲突啊。 ZK是一个独立的集群,也被大数据集群用来做选主,是大数据集群的组成部分,不冲突啊。
共 3 条评论2 - Zend2019-11-18是否可以在分布式系统中不信任的机器加入黑名单,放在ZooKeeper上。
作者回复: 如果连zookeeper集群本身的机器就不可信任,黑名单也是不可信任的。 可以参考区块链的实现机制。我在《后端技术》专栏会讲区块链技术架构。
共 2 条评论2 - 钱2019-09-28估计是删除了部分内容,看评论好多都在聊CAP,看正文没见CAP什么事,不过之前学习过ZK是属于CP的。 另外,感觉老师这个讲的浅,随便一个zk的讲解都比这多,我自己百度过分布式一致性协议,感觉2PC/3PC还能理解,对于ZAB的简单说明也能理解,不过paxos确实理解不了,很期待有人能通俗易懂的将所有分布式一致性协议都对比讲解清楚一下!共 2 条评论2
- aof2018-12-21老师能专门讲一下zookeeper的leader选举机制吗2
- Leo2020-03-30就为了看zookeeper怎样保证分布式存储的一致性来的😄1
- 大魔王汪汪2019-09-01zk集群可用性怎么保证呢?这不又回到原始的问题了?共 1 条评论1
- 阿里巴巴骊骅2018-12-06请问老师 对于文中这句话不太理解:“但是 ZooKeeper 系统中所有服务器都存储相同的数据,也就是数据没有分片存储,因此不满足分区耐受性”。zk没有分片但是都存储了相同数据,也就是有冗余备份,一定是要数据有分片才满足P吗1
- 欧嘉权Felix2018-12-05不是很理解老师说的不符合p的原因 zk是cp系统吧1