极客时间已完结课程限时免费阅读

10 | 一致哈希算法:如何分群,突破集群的“领导者”限制?

10 | 一致哈希算法:如何分群,突破集群的“领导者”限制?-极客时间

10 | 一致哈希算法:如何分群,突破集群的“领导者”限制?

讲述:于航

时长10:44大小9.82M

你好,我是韩健。
学完前面几讲后,有些同学可能有这样的疑问:如果我们通过 Raft 算法实现了 KV 存储,虽然领导者模型简化了算法实现和共识协商,但写请求只能限制在领导者节点上处理,导致了集群的接入性能约等于单机,那么随着业务发展,集群的性能可能就扛不住了,会造成系统过载和服务不可用,这时该怎么办呢?
其实这是一个非常常见的问题。在我看来,这时我们就要通过分集群,突破单集群的性能限制了。
说到这儿,有同学可能会说了,分集群还不简单吗?加个 Proxy 层,由 Proxy 层处理来自客户端的读写请求,接收到读写请求后,通过对 Key 做哈希找到对应的集群就可以了啊。
是的,哈希算法的确是个办法,但它有个明显的缺点:当需要变更集群数时(比如从 2 个集群扩展为 3 个集群),这时大部分的数据都需要迁移,重新映射,数据的迁移成本是非常高的。那么如何解决哈希算法,数据迁移成本高的痛点呢?答案就是一致哈希(Consistent Hashing)。
为了帮你更好地理解如何通过哈希寻址实现 KV 存储的分集群,我除了会带你了解哈希算法寻址问题的本质之外,还会讲一下一致哈希是如何解决哈希算法数据迁移成本高这个痛点,以及如何实现数据访问的冷热相对均匀。
对你来说,学完本讲内容之后,不仅能理解一致哈希的原理,还能掌握通过一致哈希实现数据访问冷热均匀的实战能力。
老规矩,在正式开始学习之前,我们先看一道思考题。
假设我们有一个由 A、B、C 三个节点组成(为了方便演示,我使用节点来替代集群)的 KV 服务,每个节点存放不同的 KV 数据:
图1
那么,使用哈希算法实现哈希寻址时,到底有哪些问题呢?带着这个问题,让我们开始今天的内容吧。

使用哈希算法有什么问题?

通过哈希算法,每个 key 都可以寻址到对应的服务器,比如,查询 key 是 key-01,计算公式为 hash(key-01) % 3 ,经过计算寻址到了编号为 1 的服务器节点 A(就像图 2 的样子)。
图2
但如果服务器数量发生变化,基于新的服务器数量来执行哈希算法的时候,就会出现路由寻址失败的情况,Proxy 无法找到之前寻址到的那个服务器节点,这是为什么呢?
想象一下,假如 3 个节点不能满足业务需要了,这时我们增加了一个节点,节点的数量从 3 变化为 4,那么之前的 hash(key-01) % 3 = 1,就变成了 hash(key-01) % 4 = X,因为取模运算发生了变化,所以这个 X 大概率不是 1(可能 X 为 2),这时你再查询,就会找不到数据了,因为 key-01 对应的数据,存储在节点 A 上,而不是节点 B:
图3
同样的道理,如果我们需要下线 1 个服务器节点(也就是缩容),也会存在类似的可能查询不到数据的问题。
而解决这个问题的办法,在于我们要迁移数据,基于新的计算公式 hash(key-01) % 4 ,来重新对数据和节点做映射。需要你注意的是,数据的迁移成本是非常高的。
为了便于你理解,我举个例子,对于 1000 万 key 的 3 节点 KV 存储,如果我们增加 1 个节点,变为 4 节点集群,则需要迁移 75% 的数据。
$ go run ./hash.go -keys 10000000 -nodes 3 -new-nodes 4
74.999980%
从示例代码的输出,你可以看到,迁移成本是非常高昂的,这在实际生产环境中也是无法想象的。
那我们如何通过一致哈希解决这个问题呢?

如何使用一致哈希实现哈希寻址?

一致哈希算法也用了取模运算,但与哈希算法不同的是,哈希算法是对节点的数量进行取模运算,而一致哈希算法是对 2^32 进行取模运算。你可以想象下,一致哈希算法,将整个哈希值空间组织成一个虚拟的圆环,也就是哈希环:
图4
从图 4 中你可以看到,哈希环的空间是按顺时针方向组织的,圆环的正上方的点代表 0,0 点右侧的第一个点代表 1,以此类推,2、3、4、5、6……直到 2^32-1,也就是说 0 点左侧的第一个点代表 2^32-1。
在一致哈希中,你可以通过执行哈希算法(为了演示方便,假设哈希算法函数为“c-hash()”),将节点映射到哈希环上,比如选择节点的主机名作为参数执行 c-hash(),那么每个节点就能确定其在哈希环上的位置了:
图5
当需要对指定 key 的值进行读写的时候,你可以通过下面 2 步进行寻址:
首先,将 key 作为参数执行 c-hash() 计算哈希值,并确定此 key 在环上的位置;
然后,从这个位置沿着哈希环顺时针“行走”,遇到的第一节点就是 key 对应的节点。
为了帮助你更好地理解如何通过一致哈希进行寻址,我举个例子。假设 key-01、key-02、key-03 三个 key,经过哈希算法 c-hash() 计算后,在哈希环上的位置就像图 6 的样子:
图6
那么根据一致哈希算法,key-01 将寻址到节点 A,key-02 将寻址到节点 B,key-03 将寻址到节点 C。讲到这儿,你可能会问:“老韩,那一致哈希是如何避免哈希算法的问题呢?”
别着急,接下来我分别以增加节点和移除节点为例,具体说一说一致哈希是如何避免上面的问题的。假设,现在有一个节点故障了(比如节点 C):
图7
你可以看到,key-01 和 key-02 不会受到影响,只有 key-03 的寻址被重定位到 A。一般来说,在一致哈希算法中,如果某个节点宕机不可用了,那么受影响的数据仅仅是,会寻址到此节点和前一节点之间的数据。比如当节点 C 宕机了,受影响的数据是会寻址到节点 B 和节点 C 之间的数据(例如 key-03),寻址到其他哈希环空间的数据(例如 key-01),不会受到影响。
那如果此时集群不能满足业务的需求,需要扩容一个节点(也就是增加一个节点,比如 D):
图8
你可以看到,key-01、key-02 不受影响,只有 key-03 的寻址被重定位到新节点 D。一般而言,在一致哈希算法中,如果增加一个节点,受影响的数据仅仅是,会寻址到新节点和前一节点之间的数据,其它数据也不会受到影响。
让我们一起来看一个例子。使用一致哈希的话,对于 1000 万 key 的 3 节点 KV 存储,如果我们增加 1 个节点,变为 4 节点集群,只需要迁移 24.3% 的数据:
$ go run ./consistent-hash.go -keys 10000000 -nodes 3 -new-nodes 4
24.301550%
你看,使用了一致哈希后,我们需要迁移的数据量仅为使用哈希算法时的三分之一,是不是大大提升效率了呢?
总的来说,使用了一致哈希算法后,扩容或缩容的时候,都只需要重定位环空间中的一小部分数据。也就是说,一致哈希算法具有较好的容错性和可扩展性。
需要你注意的是,在哈希寻址中常出现这样的问题:客户端访问请求集中在少数的节点上,出现了有些机器高负载,有些机器低负载的情况,那么在一致哈希中,有什么办法能让数据访问分布的比较均匀呢?答案就是虚拟节点。
在一致哈希中,如果节点太少,容易因为节点分布不均匀造成数据访问的冷热不均,也就是说大多数访问请求都会集中少量几个节点上:
图9
你能从图中看到,虽然有 3 个节点,但访问请求主要集中的节点 A 上。那如何通过虚拟节点解决冷热不均的问题呢?
其实,就是对每一个服务器节点计算多个哈希值,在每个计算结果位置上,都放置一个虚拟节点,并将虚拟节点映射到实际节点。比如,可以在主机名的后面增加编号,分别计算 “Node-A-01”“Node-A-02”“Node-B-01”“Node-B-02”“Node-C-01”“Node-C-02”的哈希值,于是形成 6 个虚拟节点:
图10
你可以从图中看到,增加了节点后,节点在哈希环上的分布就相对均匀了。这时,如果有访问请求寻址到“Node-A-01”这个虚拟节点,将被重定位到节点 A。你看,这样我们就解决了冷热不均的问题。
最后我想说的是,可能有同学已经发现了,当节点数越多的时候,使用哈希算法时,需要迁移的数据就越多,使用一致哈希时,需要迁移的数据就越少:
$ go run ./hash.go -keys 10000000 -nodes 3 -new-nodes 4
74.999980%
$ go run ./hash.go -keys 10000000 -nodes 10 -new-nodes 11
90.909000%
$ go run ./consistent-hash.go -keys 10000000 -nodes 3 -new-nodes 4
24.301550%
$ go run ./consistent-hash.go -keys 10000000 -nodes 10 -new-nodes 11
6.479330%
从示例代码的输出中你可以看到,当我们向 10 个节点集群中增加节点时,如果使用了哈希算法,需要迁移高达 90.91% 的数据,使用一致哈希的话,只需要迁移 6.48% 的数据。
我希望你能注意到这个规律,使用一致哈希实现哈希寻址时,可以通过增加节点数降低节点宕机对整个集群的影响,以及故障恢复时需要迁移的数据量。后续在需要时,你可以通过增加节点数来提升系统的容灾能力和故障恢复效率。

内容小结

以上就是本节课的全部内容了,本节课我主要带你了解了哈希算法的缺点、一致哈希的原理等内容。我希望你明确这样几个重点。
一致哈希是一种特殊的哈希算法,在使用一致哈希算法后,节点增减变化时只影响到部分数据的路由寻址,也就是说我们只要迁移部分数据,就能实现集群的稳定了。
当节点数较少时,可能会出现节点在哈希环上分布不均匀的情况。这样每个节点实际占据环上的区间大小不一,最终导致业务对节点的访问冷热不均。需要你注意的是,这个问题可以通过引入更多的虚拟节点来解决。
最后我想说的是,一致哈希本质上是一种路由寻址算法,适合简单的路由寻址场景。比如在 KV 存储系统内部,它的特点是简单,不需要维护路由信息。

课堂思考

Raft 集群具有容错能力,能容忍少数的节点故障,那么在多个 Raft 集群组成的 KV 系统中,如何设计一致哈希,实现当某个集群的领导者节点出现故障,并选举出新的领导者后,整个系统还能稳定运行呢?欢迎在留言区分享你的看法,与我一同讨论。
最后,感谢你的阅读,如果这篇文章让你有所收获,也欢迎你将它分享给更多的朋友。
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 15

提建议

上一篇
09 | Raft算法(三):如何解决成员变更的问题?
下一篇
11 | Gossip协议:流言蜚语,原来也可以实现一致性
 写留言

精选留言(43)

  • 指尖以东
    置顶
    2020-05-06
    最近一直在看hash,老师可否讲讲虚拟节点的算法怎么做才能做到均衡,不然加的节点还是可能冷热不均衡的

    作者回复: 加一颗星:这个主要是利用算法的随机性,在实际使用中,增加更多的节点,就会均衡了。为了帮助大家更直观的理解,我新增了一个演示程序(https://github.com/hanj4096/hash),来演示虚拟节点的均衡性的。具体效果如下: go run consistent-hash-vnode.go normal mode: node0 79.597960% , node1 87.818782% , node2 132.613261% vnode mode: node0 100.990099% , node1 98.679868% , node2 100.360036%

    12
  • Michael Tesla
    2020-03-30
    老师,我觉得课后题的答案是:数据要同时写入当前集群和下一个集群。某个Raft集群挂掉后,原本路由到这个集群的请求,现在都到下一个Raft集群去了。只要下一个Raft集群保存了上一个集群的数据,即使某个集群挂了,整个系统还能正常提供服务。

    作者回复: 加一颗星:),相比“值到节点”的一级映射,可以做两级映射,“值到集群,集群到领导者节点”,通过Raft的节点故障容错能力,来避免数据迁移。在实际系统中,如果不采用具有节点故障容错能力的共识算法,一般不会直接将数据写入到下一个节点,而是会有个备份服务器,当节点故障,切换到备节点时,为了实现强一致性,能读取到最新数据,不仅要做一致性对比和数据迁移,还是实现双读,比较复杂。

    18
  • Purson
    2020-03-04
    老师,consistent-hash.go 和 hash.go 算法希望能分享一下。另外有个问题,虚拟节点还是映射了实际节点,比如一个节点有4个虚拟节点,如果1个实际节点挂了,是不是意味着另外3个相关的虚拟节点挂了,这样一致性hash算法还是会有很多不命中的情况。

    作者回复: https://github.com/hanj4096/hash 是的,虚拟节点,是需要映射到实际节点的,实际节点挂了,虚拟节点就没有意义了。

    17
  • 星期一
    2020-03-04
    那TiDB 通过raft实现kv,region 来突破领导者单点问题,老师可以不可以串讲一下:TiDB、kafka、es 等常见分布式中间件 它们各自如何解决分布式的问题。

    作者回复: 好,后续做个补充吧。

    共 3 条评论
    16
  • Kvicii.Y
    2020-03-24
    4.当某一个节点故障了,该节点上的数据需要进行迁移吗??感觉只是影响了瞬间的读写,raft选举会很快进行吧,恢复了之后就有正常了,选举期间的读写访问顺延到下一节点这个才需要具体实现吧?

    作者回复: 加一颗星:),是的,不需要,领导者选举很快的,在客户端超时重试间隔内,是能恢复的。

    7
  • hello
    2020-03-04
    老师请教下,在环中加入节点以及去掉节点,那存储的数据是如何迁移到其它节点上的?

    作者回复: 需要自己开发工具,在迁移过渡状态时,还要考虑多读,数据写入到新节点,但读,需要同时读2个节点,返回最新的数据。

    共 3 条评论
    7
  • Sinclairs
    2020-03-04
    针对多个 Raft 集群, 需要有一个路由系统, 客户端通过这个路由系统来读写数据.. 1. 客户端写数据时, 根据哈希算法会得到一个值, 这个值可以落到集群A的哈希分片上, 假设集群B是集群A顺时针哈希分片后的下一个分片. 客户端写入数据时, 要保证集群A和集群B同时写入成功 2. 客户端读取数据时, 路由系统若检测到集群A不可用, 则去访问集群B, 也能获得数据. 集群A和相邻的集群B同时发生故障的概率是非常小的, 这样就能保证系统的稳定运行.
    展开

    作者回复: 加一颗星:),考虑到Raft集群本身就有节点故障容错能力,当发生领导者选举后,映射到新的领导者,就可以了。

    共 7 条评论
    7
  •  尿布
    2020-03-12
    为什么一个节点可以算出多个hash值?

    作者回复: 加一颗星:),引入虚拟节点,比如,将包含主机名和虚拟节点编号的字符串,作为参数,来计算哈希值。

    6
  • 竹马彦四郎的好朋友影...
    2020-05-04
    这一节感觉还是比较轻松的~
    4
  • Theodore
    2020-04-20
    解开了我多年的疑惑。我说一致性hash怎么解决迁移带来的问题,还是靠运维啊

    作者回复: 加一颗星:),扩容或缩容时,一般是通过运维工具来迁移的。

    4
  • 沉淀的梦想
    2020-03-05
    当其中一个 Raft 集群领导者出现故障,读的时候还是可以从跟随者读,写的时候可以暂时先写到哈希环上的下一个集群中,等到重新选举领导者完成,再把数据捞回来。这么设计可以吗?

    作者回复: 数据迁移,实际操作起来,还是有复杂度,需要流程化。其实,领导者选举是很快的,一般,写失败后,重试就可以了。

    共 2 条评论
    4
  • Kvicii.Y
    2020-03-24
    老师, 1.虚拟节点是要根据hash规则再做一次hash类似这样实现吗? 2.在这个例子中,节点A、B、C是不是就可以理解为三个Raft集群,每个集群上都分别有Leader,各自进行集群的维护操作呢?

    作者回复: 加一颗星:),问题1,是的,还需要将虚拟节点映射到实际节点;问题2,也可以这么理解的。

    3
  • 小晏子
    2020-03-04
    将数据按照某种方式分片然后按照一致性hash算法存放到不同的raft集群中,这样当某个集群出问题时,这部分分区数据会迁移到临近raft集群,保障了系统的稳定运行。理论上可行,可是实际中好像没有这样做的,管理多个raft集群感觉是个麻烦的事情。

    作者回复: Raft集群本身有容错能力,可以和一致哈希结合着使用,尽量避免数据迁移,在现实中,数据迁移还是有复杂度,除了要流程化,还避免引起节点CPU的高负载。大系统、容错要求高,是需要的。

    共 2 条评论
    3
  • Kvicii.Y
    2020-03-24
    3.对2^32取模的过程是不是相当于计算hash环的索引,实际对key进行hash计算找位置时才是找真正的索引?

    作者回复: 加一颗星:),前半句,是的,后半句,对key执行hash计算,得出key对应的索引值,然后根据key的索引值,找到key对应节点。

    2
  • 高志强
    2020-03-04
    老师,consistent-hash.go 和 hash.go 算法在github上有代码么,想看看

    作者回复: https://github.com/hanj4096/hash

    2
  • Ricky Fung
    2021-06-29
    课后问题 可以维护二级映射,hash(key) -> 集群,集群 -> leader节点IP,集群对应的leader节点IP可以统一存储到某个地方(例如redis)便于查询。
    1
  • 明翼
    2020-04-17
    老师我对一致hash算法搬迁数据量有疑问,比如文中三个节点变成四个节点假设数据是均衡的三个节点存数据为总得33.3%,调整数据大概只要调整第三个节点的一半即16%这个比您文中的要少,怎么回事,是不是hash不均衡造成的偏差那您又如何知道该如何均衡的那

    作者回复: 加一颗星:),如果数据和节点的映射关系变了,那么数据就需要搬迁,比如,你可以这样推导来感性理解下,1~10,10个数作为key,分别按照3和4来取余,余数为对应的节点,然后统计下,有多少key对应节点的映射关系发生了变化,然后再增加key的数量,比如100,再来统计下。

    1
  • winfield
    2020-04-12
    有个疑问,一致性哈希中引入虚拟节点能解决冷热不均的问题么,虚拟节点最后不还是映射到了实际节点上?请老师帮忙解答下,谢谢!

    作者回复: 加一颗星:),是的,最终是需要寻址到实际节点上的。

    共 3 条评论
    1
  • 吟游雪人
    2020-04-02
    多集群是多领导者节点么?多领导者不就脑裂了么?

    作者回复: 多个集群,不是同一个集群多个领导者节点,是指多个独立的集群。比如,你配置了2个基于Raft的KV存储集群,集群1,存放的是来自业务1的数据;集群2,存放的是来自业务2的数据。

    共 4 条评论
    1
  • 孙成子
    2020-03-31
    一致性HASH算法,为什么会出现不均匀的情况? hash的目的就是打散数据。

    作者回复: 加一颗星:),值少。均匀是相对的,值越多越均匀,所以,当节点数少时,需要引入虚拟节点,也就是更多的值。可以写个程序,实际运行,感性的体验下:)。

    1