极客时间已完结课程限时免费阅读

特别放送 | 分布式下的一致性杂谈

特别放送 | 分布式下的一致性杂谈-极客时间

特别放送 | 分布式下的一致性杂谈

讲述:冯永吉

时长19:03大小17.45M

你好,我是聂鹏程。
我们常说:“众人齐心,其利断金。”其实说的就是团结一致的重要性。一致性对一个团队如此重要,对于一个分布式系统又何尝不是呢?人心散了,团队会不好带。分布式系统中出现不一致了,也会带来各种各样的问题,甚至导致业务不可用。
我在第 23 讲“CAP 理论:这顶帽子我不想要”时,就解释了分布式系统中一致性和可用性,就像是鱼与熊掌,不可兼得。因此,多年来,在不同场景下,保证一致性的同时尽可能提高可用性,或者保证可用性的同时尽可能提高一致性,成为了众多学术界、工业界仁人志士们研究的课题以及努力的方向。正可谓,分布式技术如此多娇,分布式一致性引无数英雄竞折腰。
今天,我特地邀请到我的朋友王启军,来与你分享他对分布式一致性的解读、思考和实践。
王启军,华为云 PaaS 团队资深架构师,负责 Java 和 Go 微服务框架。他曾任当当网架构师,主导电商平台架构设计;曾就职于搜狐,负责手机微博的研发;著有《持续演进的 Cloud Native》。
话不多说,我们来看看王启军的分享吧。
你好,我是王启军。今天,我来和你聊聊分布式下的一致性。
以前面试别人的时候,我经常会用一些开放性的问题来考察对方的能力。比如我最爱的一个问题是,“如果给你一份数据,要求支撑大规模的并发读写,同时具备横向扩展能力,你该如何拆分、如何同步数据呢?”
此时,候选人想到的通常是复制数据到多台服务器,以提升读的性能;然后对数据进行分区,分布到不同的服务器,以解决写的瓶颈。
如果到了这里,接下来我会问他怎么同步数据,一次性写多条数据,怎么保证多台服务器的一致性呢?如果数据同步存在延迟,怎么保证写后一定能读到呢?
这次追问之后,大部分候选人就会卡住。不知道你在面试的时候有没有遇到过类似的问题,今天我就想和你聊聊这个话题。

一致性的分类

业界对一致性的定义有很多种,比如 CAP 理论中的一致性和 ACID 中的一致性,描述的就不太一样,不能一概而论。所以,在讨论之前,你最好弄清楚一致性的分类
为了便于理解,业界通常会把一致性笼统地分为如下三类:
弱一致性(Weak):写入数据 A 成功后,在数据副本上可能读出来,也可能读不出来,不能保证多长时间之后每个副本的数据一定是一致的。
最终一致性(Eventually):写入数据 A 成功后,在其他副本有可能读不到 A 的最新值,但在某个时间窗口之后保证最终能读到。最终一致性可以看作弱一致性的一个特例,这里的重点是“时间窗口”。在读多写少的场景中,例如 CDN,读写比非常悬殊,如果网站的运营人员修改了一张图片,最终用户延迟一段时间看到这个更新实际上问题不大。我们把这种一致性归结为最终一致性,指的就是,如果更新的时间间隔比较长,那么所有的副本能够最终达到一致性。
强一致性(Strong):数据 A 一旦写入成功,在任意副本任意时刻都能读到 A 的最新值。
但实际上,这种分类并不能描述清楚,弱一致性在生产环境中基本没什么应用场景,最终一致性范围太宽泛,可能会存在多种不同强度的一致性。
相对来说,我更喜欢另外一种对一致性的分类方法,一致性模型主要从以下两个角度去分类
以数据为中心的一致性模型。从数据的角度来观察,全局考虑,比如从数据库的角度来看,北京和南京的数据是否一致。
以客户为中心的一致性模型。从用户的角度来观察,比如我购买了一个商品,存到了北京的数据中心,另外一个人购买了一个商品,存到了南京的数据中心,两个买家之间没有任何关系,无需保持一致,只要是跟我有关系的数据保证一致就行了。
这两种一致性模型,又可以细分为很多类。接下来,我们就一起看看吧。
以数据为中心的一致性模型,又可以分为:严格一致性(Strict Consistency)、顺序一致性(Sequential Consistency)、因果一致性(Causal Consistency)、FIFO 一致性(FIFO Consistency)、弱一致性(Weak Consistency)、释放一致性(Release Consistency)和入口一致性(Entry Consistency)。
限于篇幅,我不会详细介绍每一种一致性的定义,只和你说明几个常用的。
严格一致性,要求任何写操作都能立刻同步到其他所有进程,任何读操作都能读取到最新的修改。要实现这一点,要求存在一个全局时钟,也就是说每台服务器的时间都完全一致,但在分布式场景下很难做到。所以,严格一致性在实际生产环境中目前无法实现。
既然全局时钟导致严格一致性很难实现,顺序一致性放弃了全局时钟的约束,改为分布式逻辑时钟实现。分布式逻辑时钟可以理解为一个分布式 ID。
顺序一致性是指,所有的进程以相同的顺序看到所有的修改。读操作未必能及时得到此前其他进程对同一数据的写更新,但是每个进程读到的该数据的不同值的顺序是一致的。举个例子,你在手机和 PC 上看到的聊天室的顺序是一致的吗?如果是一致的,那就代表满足顺序一致性,即使理论上某些先发的消息排在后发的消息后面了,也是满足的。
因果一致性是一种弱化的顺序一致性,所有进程必须以相同的顺序看到具有潜在因果关系的写操作,不同进程可以以不同的顺序看到并发的写操作。举个例子,在聊天室你看到有人问你:“你吃饭了吗?”,你回答:“我吃过了。”,你是因为看到了问题所以才触发了回答,所以这两条消息之间就存在因果关系,原因必须排在前面。
以用户为中心的一致性模型,包括 4 类:
单调读一致性(Monotonic-read Consistency);
单调写一致性(Monotonic-write Consistency);
写后读一致性(Read-your-writes Consistency);
读后写一致性(Writes-follow-reads Consistency)。
单调读一致性是指,如果一个进程读取数据项 a 的值,那么该进程对 a 执行的任何后续读操作,总是得到第一次读取的那个值或更新的值。这个比较容易理解,说白了,就是不能读到新数据后,再读到比这个数据还旧的数据;如果没读到新数据,一直读的还是旧数据,单调读一致性并不关心这个问题。
单调写一致性是指,一个进程对数据项 a 执行的写操作,必须在该进程对 a 执行任何后续写操作前完成。这个很容易满足,注意这里是一个进程,所有的写操作都是顺序的。
写后读一致性是指,一个进程对数据项 a 执行一次写操作的结果,总是会被该进程对 a 执行的后续读操作看见。这个比较常见,比如数据库采用 Master-Slave 结构部署时,写完 Master 数据库,如果从 Slave 读取,有可能读不到,就不满足写后读一致性了。
读后写一致性是指,同一进程对数据项 a 执行的读操作之后的写操作,保证发生在与 a 读取值相同或比其更新的值上。这个问题经常出现的场景是,如果数据存储了多个副本,因为没有及时同步,在第一个副本上读了数据,去第二个副本上写,出现不一致的情况。

如何满足一致性需求?

当单个存储承受不住压力的时候,在读多写少的情况下,我们自然会想到使用主从的方式。为了保证写的一致性,通常只在主节点写,然后主从之间通过状态机(Replicated State Machine)的方式同步数据。
可以简单地理解为,主从都有相同的初始状态,在主上执行的所有命令,都同步一份相同顺序的命令到从,这样就可以保证最终数据也相同
比如 MySQL,就可以采用一个 Master,多个 Slave 的方式,所有的写都在 Master 上更新,所有的读都在 Slave 上进行,但这里存在一个问题,就是怎么保证写后读一致性?答案就是,写后读都在 Master 上进行。注意,并不是所有的读都作用在 Master,而只对写后读一致性有要求的场景才在 Master 上读。
当然,这样 Master 的压力可能还是会很大。回到问题本身,之所以满足不了写后读一致性,原因是主从之间存在延迟。那么,我们完全可以设定一个大于延迟时间的阈值,小于阈值并且要求写后读一致性的操作作用在 Master 上,其他所有的读都作用在 Slave 上。
还有一个问题就是,当主挂掉的时候,为了保证可用性,通常要将其中一个从提升为主,这里面就会涉及很多问题,到底选择哪个从作为主节点?发生网络分区的时候,如何避免脑裂?如果旧的主节点又恢复了,如何协调?
关于这些问题如何解决,你可以参考 Etcd 和 ZooKeeper 的实现方案。

Quorum 机制(NWR 模型)

主从机制要求写必须在主上进行,那能不能让写在所有节点上都可以进行呢?当然可以,不过这已经不是主从模式了。
回到前面的问题,如果同时写三份数据,如何保证一定能够读取到最新的数据呢?简单来说就是利用版本号,假设一共三个节点,每次写数据的同时,我都会记录这条数据对应的版本号,读数据的时候读所有的节点,然后跟版本号进行对比,版本最新的就是最终数据。实际上这就是 Quorum 机制的原理,也可以叫作 NWR 模型。
简单来说,Quorum 机制就是要满足公式 W+R > N。其中,W 表示必须至少写入成功的节点数,R 表示至少读取成功的节点数,N 表示总节点数。这个公式把选择权交给了业务用户,让用户来做出最终决策。
假设现在一共有三个节点,为了满足这个公式:
如果我写数据的时候写入三个节点都成功才返回,那我读取的时候只要读取其中任意一个节点就可以得到最新的数据。
如果我写数据的时候写入两个节点成功就返回,那我读取的时候只要读取其中任意两个节点就可以得到至少一份最新的数据。
如果我写数据的时候写入一个节点成功就返回,那我读取的时候必须读取所有节点才可以得到至少一份最新的数据。
这里还存在另外一个问题,那就是,如果写的时候只写入一个节点就返回,当存在并发操作时,版本会存在冲突,也就是说,如果初始版本为 1,两个进程分别对其中两个节点写数据,两个节点版本号都变成了 1,数据却不一样,这个问题如何解决呢?
这,就要求我们写数据的时候最好是遵循 W>N/2,也就是说,写的时候最好大于总节点数的一半,在写的过程中进行冲突检测,而不是在读的时候检测。

N 阶段提交

还有一种比较经典的做法,常用在数据库中,那就是 N 阶段提交。这里的 N 有一阶段、两阶段、三阶段,其中两阶段用得最多。
这里我必须首先说明一下,两阶段提交不等于 XA 协议,两阶段提交是一种模式,ZooKeeper 中提交事务的过程实际上也类似于两阶段提交,Google 的分布式事务 Percolator 也是基于两阶段提交,而 XA 只是一种协议。它是由 X/Open 国际联盟提出的 X/Open Distributed Transaction Processing(DTP)模型,简称 XA 协议。
顾名思义,两阶段提交的整个过程分为两个阶段,第一阶段询问是否可以提交,锁定数据,如果所有节点都返回可以提交,第二阶段提交,否则第二阶段回滚。基于 XA 的两阶段提交就是这种流程,这种方式常用于同时更新两个数据库的场景,一般常用的关系型数据库都支持这个协议。
由于第一阶段要给数据库加锁,否则会出现不一致的情况,这就会带来很多问题,XA 被诟病的大部分原因都跟这个锁有关。例如,加锁后,协调者挂掉怎么办?加锁后,性能大幅下降如何处理?
为了解决死锁的问题,可以将加锁的时间缩短,降低死锁的概率,这就是三阶段提交。也就是说把第一阶段分为两个部分,询问是否可以提交,回复可以提交的时候,并不加锁,当所有节点都回复可以的时候,协调者再发一次加锁的请求。但这样的话,系统会变得更复杂。
当然,两阶段提交并不是只有 XA 协议,TCC 也可以看成是一种两阶段提交协议,TCC 是 Try-Confirm-Cancel 的缩写。相对于两阶段提交事务机制,它的特征在于不依赖于数据库的协议,数据库不需要锁定数据,事务过程由业务服务来实现,这样也就不会出现死锁的问题,性能也会高很多。还有一点容易被忽略,这种做法降低了数据库的压力。
当然,世界上没有免费的午餐,TCC 事务机制也有不好的地方
导致业务变得更复杂,数据库需要增加字段表示状态;
需要增加相应接口实现 Confirm 和 Cancel 方法;
业务要自己保证每个方法的幂等,因为这里可能涉及到失败重试的问题。
而一阶段提交,就是没有询问是否可以提交的过程,直接提交,任意一个节点提交失败,就进行重试或者回滚。这种方案对业务的侵入性很大,需要对业务提供一个回滚操作。

实践案例

接下来,我就以在华为云的工作场景为例,来给你串下整体的思路吧。
华为云目前的分布式框架采用 TCC 的模式,将协调者从业务中抽离,独立为一个服务。主业务发起事务,获得全局事务 ID,调用分支业务时将全局事务 ID 通过 Header 传递过去,分支业务根据全局事务 ID 申请分支事务 ID,所有的状态都会存储到分布式事务服务端,服务端根据执行情况进行全局协调。
事务执行的大概步骤,如下所示。
步骤 1:进入到发起全局事务的方法内时,会先向 DTM 集群申请注册一个全局事务 ID(Global Transaction ID),只有申请成功才可继续后续流程。
步骤 2.1:事务发起者将申请到的全局事务 ID 透传到所调用的事务参与者中。
步骤 2.2:事务参与者利用得到的全局事务 ID,向 DTM 集群注册申请一个分支事务 ID(Branch Transaction ID),只有申请成功才可继续此事务参与者的后续流程。
步骤 2.3:事务参与者完成自身业务逻辑(即完成 TCC 中的 Try 阶段)。
步骤 2.4:事务参与者将自身业务逻辑结果上传到 DTM 集群,并示意分支事务结束。
步骤 3.1~3.4:与 2.1~2.4 类似,完成剩余事务参与者的业务逻辑。
步骤 4:事务发起者发起 TCC 二阶段。
步骤 5.1:DTM 集群根据全局事务 ID,找到事务参与者,发起 TCC 二阶段。
步骤 5.2:与 5.1 类似,完成剩余事务参与者的 TCC 二阶段。
步骤 6:DTM 集群通告事务发起者全局事务结束。

什么时候开始考虑一致性?

在分布式领域,一致性是个永恒的话题,因为在大多数场景下,出于成本考虑,通常会选择性地忽略或者降低对一致性的要求。但是,当系统达到一定规模的时候,不一致的概率就会大大增加,比如原本不一致的概率可能是一万年一次,如果数据量提升一万倍,那可能是一年一次。但,无论发生的概率是多少,研发成本都是一样的,这时候实现更强的一致性就非常有必要了。
凡是涉及钱的系统,对一致性的要求必然很高,除此之外,大多数场景实际上对一致性的要求并没有那么高,比如用户登录时给用户加一个积分,加积分这个操作并没有那么重要,延迟几秒影响也不大,那完全可以做成异步的,保证最终一致性就可以了。

有没有什么学习材料?

如果要推荐学习资料的话,我建议你可以多去看看分布式领域的论文,特别是大神莱斯利 · 兰波特(Leslie Lamport)的,以及 Google、Amazon 等硅谷著名企业发布的论文。比如,下面这两篇,我就非常推荐你去读一读,因为很多数据库的分布式事务都是参考了它们 。
Percolator 的论文,可以认为是 Spanner 的类似实现,TiDB 的实现也是根据此论文得出。
DynamoDB 的论文,Dynamo: Amazon’s Highly Available Key-value Store。
另外,你还可以看一些开源框架的实现,比如 Cassandra、Kafka 等,这些代码对于你理解分布式一致性会有非常大的帮助。

总结

我来简单和你总结一下今天的主要内容吧。
首先,要搞明白分布式一致性,我们就要从其分类开始,除了弱一致性、强一致性、最终一致性这种分类方式外,还有一种更好的分类方式,就是以数据为中心和以用户为中心的一致性分类。
其次,如果要满足一致性的需求,有很多种方案,这里我们介绍了两种最常用的方案,Quorum 机制和 N 阶段提交,并通过华为云的一个实践案例来加深你对一致性的理解。
最后,在分布式领域,一致性是目前为止解决得最不好的一个领域,也是最复杂的一个领域,解决方案五花八门,我只是与你介绍了其中的一部分内容,如果你要继续学习,可以多阅读一些论文和开源框架的代码。
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 2

提建议

上一篇
特别放送 | 那些你不能错过的分布式系统论文
下一篇
结课问卷获奖用户名单
 写留言

精选留言(7)

  • leslie
    2019-11-29
    一致性问题其实对于分布式各种中间件存储最大的考验:不同场景对于一致性的要求不同又关系到不同的策略,其实今天课程中的用户一致性可能是之前一直没思考到的地方;今天的课程让我会从另外一个角度/方向去思考和处理一致性问题。 ACID的一致性大多数情况下比目前的CAP做的要严格,这也是为何之前看到文章提及google的第二代borg又用了乐观锁去处理之前第一代的问题。其实锁的处理依然有许多细节的方式可以去把控和操作从而解决分布式一致性的问题:细节决定成败。谢谢分享。
    展开
    5
  • 极客雷
    2020-03-28
    王启军讲的很好,是真正搞过分布式的
    4
  • 2020-02-21
    感谢分享,一致性和可用性在发生网络分区时确实是鱼和熊掌不可兼得。 理论就是理论,高度抽象放任四海而皆准。
    1
  • mickey
    2021-04-16
    以数据为中心和以用户为中心的划分,是按弱一致性、强一致性、最终一致性分类的结果方式的分类。
    1
  • Jaime
    2019-12-26
    想问问老师,如果自己实现了一套保证一致性的系统,要怎么去测试,不一致有可能是概率性发生的吧?

    作者回复: 构建测试用例,构建导致不一致的场景或用例进行可靠性测试

  • tt
    2019-11-29
    按照聂老师课程的知识,华为云TCC属于集中式架构了
  • Jackey
    2019-11-29
    特别放送也是干货满满,一致性在业务中真的是让人头疼的问题,特别是碰上不懂技术的产品还要解释一遍CAP😅
    共 2 条评论