极客时间已完结课程限时免费阅读

25 | 数据分布方式之哈希与一致性哈希:“掐指一算”与“掐指两算”的事

25 | 数据分布方式之哈希与一致性哈希:“掐指一算”与“掐指两算”的事-极客时间

25 | 数据分布方式之哈希与一致性哈希:“掐指一算”与“掐指两算”的事

讲述:聂鹏程

时长20:06大小18.41M

你好!我是聂鹏程。今天,我来继续带你打卡分布式核心技术。
在上一篇文章中,我带你了解了分布式存储系统的三个要素:顾客、导购和货架。其中,导购实现了分布式数据存储系统中数据索引的功能,包括存储数据时确定存储位置,以及获取数据时确定数据所在位置。
那么,在分布式系统中,具体是如何实现数据索引或数据分布的呢?目前最常用的方法就是哈希和一致性哈希。
接下来,我们就一起打卡数据分布式方式中的哈希与一致性哈希吧。
首先,我们来看一下数据分布设计的原则。数据分布设计原则是分布式存储系统设计的基本原则,指导了哈希和一致性哈希方法的选择和应用。

数据分布设计原则

其实,这里的数据分布,主要就是数据分片。相信你还记得,我在第 24 篇文章中与你分享分布式存储系统的导购时,已经和你提到数据分片技术,它解决了确定数据位置的问题,并着重与你讲述了按照数据特征进行划分的分片方法。今天,我主要与你讲解按照数据范围,采用哈希、一致性哈希等对数据划分的方法。
假设,现在有上百 G 数据需要进行分布式存储,也就是要存储到不同的节点上。提到这个问题,你可能立刻就会想到很多种方法,比如随机分布、范围分布、映射分布等。那么,我们应该如何选择到底要使用哪种方法呢?
在分布式数据存储系统中,存储方案选型时,通常会考虑数据均匀、数据稳定和节点异构性这三个维度。
数据均匀的维度考虑,主要包括两个方面:
不同存储节点中存储的数据要尽量均衡,避免让某一个或某几个节点存储压力过大,而其他节点却几乎没什么数据。比如,现在有 100G 数据,4 个同类型节点,通常希望数据存储时尽可能均衡,比如每个节点存储 25G 数据。
另外,用户访问也要做到均衡,避免出现某一个或某几个节点的访问量很大,但其他节点却无人问津的情况。比如,现在有 1000 个请求,对于上述存储数据的 4 个节点,处理用户访问请求尽量均衡,比如每个节点处理 250 个请求,当然这是非常理想的情况,实际情况下,每个节点之间相差不太大即可。
数据稳定的维度考虑,当存储节点出现故障需要移除或者扩增时,数据按照分布规则得到的结果应该尽量保持稳定,不要出现大范围的数据迁移。
比如,现有 100G 数据,刚开始有 4 个同类型节点(节点 1~4),每个节点存储 25G 数据,现在节点 2 故障了,也就是说每个节点需要存储 100G/3 数据。
数据稳定,就是尽可能只迁移节点 2 上的数据到其他节点上,而不需要对大范围或所有数据进行迁移存储。当然,如果有扩展同类型节点,也是尽可能小范围迁移数据到扩展的节点上。具体的迁移方法,可以采用下文介绍的一致性哈希方法。
节点异构性的维度考虑,不同存储节点的硬件配置可能差别很大。比如,有的节点硬件配置很高,可以存储大量数据,也可以承受更多的请求;但,有的节点硬件配置就不怎么样,存储的数据量不能过多,用户访问也不能过多。
如果这种差别很大的节点,分到的数据量、用户访问量都差不多,本质就是一种不均衡。所以,一个好的数据分布算法应该考虑节点异构性。
当然,除了上面这 3 个维度外,我们一般还会考虑隔离故障域、性能稳定性等因素。
隔离故障域,是为了保证数据的可用和可靠性。比如,我们通常通过备份来实现数据的可靠性。但如果每个数据及它的备份,被分布到了同一块硬盘或节点上,就有点违背备份的初衷了。所以,一个好的数据分布算法,应该为每个数据映射一组存储节点,这些节点应该尽量在不同的故障域,比如不同机房、不同机架等。
性能稳定性是指,数据存储和查询的效率要有保证,不能因为节点的添加或者移除,造成存储或访问性能的严重下降。
了解了数据分布的设计原则后,接下来我们再看看主流的数据分布式方法,哈希和一致性哈希吧。其中,哈希和一致性哈希是数据分布的基础方法,在不同场景下,数据分布设计的原则需要考虑的维度也不一样。随着维度的增加,一致性哈希又可进一步演进为带有限负载的一致性哈希和带虚拟节点的一致性哈希方法。
接下来,我们就一起看看这 4 种方法的具体原理和应用场景吧。

数据分布方法

哈希是指,将数据按照提前规定好的函数(哈希函数)映射到相应的存储节点,即进行一个哈希计算,得到的结果就是数据应该存储的节点。
一致性哈希同样是采用哈希函数,进行两步哈希:
对存储节点进行哈希计算,也就是对存储节点做哈希映射;
当对数据进行存储或访问时,首先对数据进行映射得到一个结果,然后找到比该结果大的第一个存储节点,就是该数据应该存储的地方。我会在下面的内容中,与你详细介绍其中的原理。
总结来讲,哈希是一步计算直接得到相应的存储节点,而一致性哈希需要两步才可以找到相应的存储节点。这,是不是就是“掐指一算”与“掐指两算”的事呢?
接下来,我们先一起看看哈希的具体原理吧。

哈希

哈希是一种非常常用的数据分布方法,其核心思想是,首先确定一个哈希函数,然后通过计算得到对应的存储节点。我们通过一个具体的例子来看一下吧。
假设,有三个存储节点,分别为 Node1、Node2 和 Node3;现有以下数据,ID 的范围为[0,1000]:D0:{ id:100, name:‘a0’}、D1:{ id:200, name:‘a1’} 、D2:{ id:300, name:‘a2’}、D3:{ id:400, name:‘a3’}、D4:{ id:500, name:‘a4’}、D5:{ id:600, name:‘a5’}和 D6:{ id:700, name:‘a6’}。
假设,哈希函数为“id% 节点个数”,通过计算可以得到每个数据应该存入的节点。在这个例子中,哈希函数是“id%3”,结果为 0 的数据存入 Node1、结果为 1 的数据存入 Node2、结果为 2 的数据存入 Node3。
如图所示,Node1 将存储数据 D2(300%3=0)和 D5(600%3=0),Node2 将存储数据 D0(100%3=1)、D3(400%3=1)和 D6(700%3=1),Node3 将存储数据 D1(200%3=2)和 D4(500%3=2)。
可以看出,哈希算法的一个优点是,只要哈希函数设置得当,可以很好地保证数据均匀性,但有一个较为严重的缺点,就是稳定性较差。
比如,随着数据量的增加,三个节点的容量无法再满足存储需求了,需要再添加一个节点。这时,哈希函数变成了 id%4,原先存储在那三个节点的数据需要重新计算,然后存入相应节点,即需要大规模的数据迁移,显然会降低稳定性。
所以,哈希方法适用于同类型节点且节点数量比较固定的场景。目前,Redis 就使用了哈希方法,你可以再回顾下第 10 篇文章“分布式体系结构之非集中式结构:众生平等”中的相关内容。
接下来,我们再看看一致性哈希吧。

一致性哈希

一致性哈希是指将存储节点和数据都映射到一个首尾相连的哈希环上,存储节点可以根据 IP 地址进行哈希,数据通常通过顺时针方向寻找的方式,来确定自己所属的存储节点,即从数据映射在环上的位置开始,顺时针方向找到的第一个存储节点。
我们看看如何用一致性哈希方法,来实现上述案例的数据存储吧。
如图所示,假设数据 D0~D7 按照 ID 进行等值映射,即映射值与 ID 值相等,比如数据 D0 映射到哈希环上的值为 100,数据 D1 映射到哈希环上的值为 200······;同时,假设存储节点 Node1、Node2 和 Node3 映射到哈希环上的值分别为 400、600、900。
按照规则,D0,D1,D2 和 D3 顺时针方向的下一个存储节点为 Node1,因此 Node1 将存储数据 D0(id = 100)、D1(id = 200)、D2(id = 300)和 D3(id = 400);同理,Node2 将存取数据 D4(id = 500)和 D5(id = 600),Node3 将存取数据 D6(id = 700)。
可以看出,一致性哈希是对哈希方法的改进,在数据存储时采用哈希方式确定存储位置的基础上,又增加了一层哈希,也就是在数据存储前,对存储节点预先进行了哈希。
这种改进可以很好地解决哈希方法存在的稳定性问题。当节点加入或退出时,仅影响该节点在哈希环上顺时针相邻的后继节点。比如,当 Node2 发生故障需要移除时,由于 Node3 是 Node2 顺时针方向的后继节点,本应存储到 Node2 的数据就会存储到 Node3 中,其他节点不会受到影响,因此不会发生大规模的数据迁移。
所以,一致性哈希方法比较适合同类型节点、节点规模会发生变化的场景。目前,Cassandra 就使用了一致性哈希方法,你可以再回顾下第 10 篇文章“分布式体系结构之非集中式结构:众生平等”中的相关内容。
一致性哈希方法虽然提升了稳定性,但随之而来的均匀性问题也比较明显,即对后继节点的负载会变大。有节点退出后,该节点的后继节点需要承担该节点的所有负载,如果后继节点承受不住,便会出现节点故障,导致后继节点的后继节点也面临同样的问题。
那么,有没有更好的方法来解决这个问题呢?
Google 在 2017 年提出了带有限负载的一致性哈希算法,就对这个问题做了一些优化。

带有限负载的一致性哈希

带有限负载的一致性哈希方法的核心原理是,给每个存储节点设置了一个存储上限值来控制存储节点添加或移除造成的数据不均匀。当数据按照一致性哈希算法找到相应的存储节点时,要先判断该存储节点是否达到了存储上限;如果已经达到了上限,则需要继续寻找该存储节点顺时针方向之后的节点进行存储。
我们看看如何用带有限负载的一致性哈希方法,来实现上述案例的数据存储吧。
如图所示,假设每个存储节点设置的上限值为 3,按照一致性哈希算法,当存储数据 D3(id = 400)时,会发现应该存储到 Node1 中,但 Node1 已经存储了三个数据 D0(id = 100)、D1(id = 200)和 D2(id = 300),达到了存储上限,因此会存储到该节点顺时针方向的下一个节点 Node2 中。当然,在存储前,也会先检查 Node2 是否达到了存储上限,如果达到了,会继续寻找其他节点。
如果你想要了解该算法的详细内容,可以阅读“Consistent Hashing with Bounded Loads”这篇论文。
带有限负载的一致性哈希方法比较适合同类型节点、节点规模会发生变化的场景。目前,在 Google Cloud Pub/Sub、HAProxy 中已经实现该方法,应用于 Google、Vimeo 等公司的负载均衡项目中。
其实,哈希、一致性哈希、带有限负载的一致性哈希,都没有考虑节点异构性的问题。如果存储节点的性能好坏不一,数据分布方案还按照这些方法的话,其实还是没做到数据的均匀分布。
接下来,我们再看一种主要针对存储节点为异构节点场景的方法,即带虚拟节点的一致性哈希吧。

带虚拟节点的一致性哈希

带虚拟节点的一致性哈希方法,核心思想是根据每个节点的性能,为每个节点划分不同数量的虚拟节点,并将这些虚拟节点映射到哈希环中,然后再按照一致性哈希算法进行数据映射和存储。
假设,Node1 性能最差,Node2 性能一般,Node3 性能最好。以 Node1 的性能作为参考基准,Node2 是 Node1 的 2 倍,Node3 是 Node1 的 3 倍。
因此,Node1 对应一个虚拟节点 Node1_1,Node2 对应 2 个虚拟节点 Node2_1 和 Node2_2,Node3 对应 3 个虚拟节点 Node3_1、Node3_2 和 Node3_3。
假设,虚拟节点 Node1_1、Node2_1、Node2_2、Node3_1、Node3_2、Node3_3 的哈希值,分别为 100、200、300、400、500、600。
那么,按照带虚拟节点的哈希一致性方法, 数据 D0 和 D6 按顺时针方向的下一个虚拟存储节点为 Node 1-1,因此节点 Node1 将会存储数据 D0(id = 100)和 D6(id = 700);同理,Node2 将会存储数据 D1(id = 200)和 D2(id = 300),Node3 将会存储数据 D3(id = 400)、D4(id = 500)和 D5(id = 600)。
可以看出,带虚拟节点的一致性哈希方法比较适合异构节点、节点规模会发生变化的场景。目前 Memcached 缓存系统实现了该方法,我会在第 27 篇文章中与你详细分析。
这种方法不仅解决了节点异构性问题,还提高了系统的稳定性。当节点变化时,会有多个节点共同分担系统的变化,因此稳定性更高。
比如,当某个节点被移除时,对应该节点的多个虚拟节点均会移除,而这些虚拟节点按顺时针方向的下一个虚拟节点,可能会对应不同的物理节点,即这些不同的物理节点共同分担了节点变化导致的压力。
当然,这种方法引入了虚拟节点,增加了节点规模,从而增加了节点的维护和管理的复杂度,比如新增一个节点或一个节点故障时,对应到虚拟节点构建的哈希环上需要新增和删除多个节点,数据的迁移等操作相应地也会很复杂。

四种数据分布方法对比

为方便理解与记忆,我再通过一个表格和你对比分析下这四种方法吧。请注意,以下方法之间的对比都是相对的比较,实际性能优劣与哈希函数的设定以及具体的数据场景密切相关。

知识扩展:数据分片和数据分区,有何区别?

首先,我们一起回忆一下第 20 篇文章中提到的数据分区。
数据分区是从数据存储块的维度进行划分,不同的分区物理上归属于不同的节点。比如,现在有 2 个节点 Node1 和 Node2,2 个数据分区 Partition1 和 Partition2,Partition1 属于 Node1、Partition2 属于 Node2。
对于数据分区,可用于存储不同的数据,也可以用来存储相同的数据实现数据备份。数据分区可以归结为是“货架”相关的关键技术,也就是为数据存储提供合适的位置。具体实例,参见第 20 篇文章中介绍的 Kafka 分区的内容。
接下来,我们再看一下数据分片。
数据分片是从数据的维度进行划分,是指将一个数据集合按照一定的方式划分为多个数据子集,不同的数据子集存在不同的存储块上,而这些存储块可以在不同的节点上,也可以在同一节点上。
具体的数据分片策略可以采用我今天和你分享的哈希、一致性哈希等方法。数据分片是实现“导购”的关键技术,目的是构建索引,为数据确定位置,包括存储数据和查询数据时确定数据位置。具体例子,可参考上文的相关内容。
由此可见,数据分片和数据分区是两个不同的概念,且属于分布式存储系统中不同角色的技术,前者是实现“导购”的关键技术,后者是“货架”相关的技术,不可直接等同。
但正因为一个是导购相关的关键技术,一个是货架相关的技术,一个提供确定数据索引的位置,一个提供合适的数据存储位置,因此正如我在第 24 篇文章中所说,这两个技术是可以共存的,比如下面这个例子。
有 3 个节点{Node1, Node2, Node3},有 3 个分区{Partition1, Partition2, Partition3}用于存储用户信息,每个节点上 1 个分区。现在有 1000 个用户信息需要存储,用户 id 编号为[1,1000],为防止将所有信息存储到一个节点上,所有用户发起请求时,该节点成为瓶颈,为此需要将这 1000 个用户信息存储到 3 个节点上。
假设,我们采用最简单的哈希方法,用户 id% 节点总数 (3) 进行哈希映射,id%3 = 0 的所有用户信息存储到节点 1 的 Partition1, id%3=1 的所有用户信息存储到节点 2 的 Partition2,id%3=2 的所有用户信息存储到节点 3 的 Partition3。

总结

今天,我主要带你学习了数据分布式方法中的哈希与一致性哈希。
首先,我带你了解了分布式数据存储系统中,设计数据分布方法需要考虑的原则,主要包括数据均匀性、稳定性和节点异构性。
其次,基于数据分布设计原则,我为你介绍了哈希、一致性哈希、带有限负载的一致性哈希和带虚拟节点的一致性哈希方法,并以例子进行辅助讲解,以便于你理解和学习。
最后,我再通过一张思维导图来归纳一下今天的核心知识点吧。
加油,相信你通过对本讲的学习,对分布式数据存储系统中“导购”的角色有了更深入的理解,对分布式数据分布方法的原理,以及如何针对不同场景进行选型有了一定的认知。加油,赶紧行动起来,为你的应用场景选择一种合适的数据分布方法,并实践起来吧!

思考题

今天,我主要与你分享的是哈希方法相关的数据分布方法,你还知道哪些常用的数据分布方法吗?
我是聂鹏程,感谢你的收听,欢迎你在评论区给我留言分享你的观点,也欢迎你把这篇文章分享给更多的朋友一起阅读。我们下期再会!
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 4

提建议

上一篇
24 | 分布式数据存储系统之三要素:顾客、导购与货架
下一篇
26 | 分布式数据复制技术:分身有术
 写留言

精选留言(18)

  • LovRNA
    2019-12-21
    带有限负载的一致性hash,在查询数据时,怎么确定数据存储在哪个节点上呢?

    作者回复: 带有限负载的一致性hash在存储时实际是分两步走,第一步通过一致性哈希计算出一个命中节点,如果命中节点有足够的空间,则存储在命中节点上,否则按顺时针方向,依次遍历下一个节点,直到找到下一个节点为止。 查询的时候如果按照存储的方式去计算命中节点,然后再去顺时针依次遍历下一个节点,这时你就会发现问题来了。 因为,如果查询数据不存在的话,需要遍历完整个哈希环上的所有节点。这种遍历的开销就太大了,因为这是网络上的遍历,可不是单机内存内的遍历。 一种思路是,在哈希命中节点上额外添加一个索引表,用以记录命中到该节点上的数据存储在哈希环上的位置。这样在通过一致性哈希计算出命中的节点后,只需要再查询这个节点上的索引表就可以找到实际的存储节点了。 其实这个本质上就是一个解决哈希冲突的过程,你可以再回想一下我们在数据结构中的哈希表解决冲突的方法,通过对比学习,可以更进一步加深你的理解。

    共 4 条评论
    32
  • Eternal
    2019-11-23
    本节课是分布式相关的知识点中最熟悉的一节,但是之前都是零碎的信息,没有把这四种数据分布方式进行细致的对比,这次老师的对比 让我豁然开朗。下面总结一下我的思考: 提到hash的时候,学后端的小伙伴一定会回想到数据结构课程中的hash,会想到Java的经典面试题:HashMap的原理,其实我想说的是 分布式的数据分布其实就是从基本的hash演化来的。 数据的最基本的存储组织方式:数组,所有的数据按照地址顺序放在一个列表 数组通过游标查询快,修改数据快,删除数据和插入数据需要移动数据就慢了,分配内存需要连续的内存空间,内存使用的效率低 于是链表诞生--->>> 链表修改数据快,删除数据,插入数据快,分配的内存空间不需要连续,内存使用的效率高,但是链表的查询需要遍历很慢 于是hash表诞生--->>> hash散列表存储键值对数据,key通过hash函数计算出一个hash值,这个hash值再和数据的地址做一个映射就找到数据了,hash解决 了链表的查询慢的问题;但是hash又引入了新的问题:hash函数性能损耗,hash散列不均衡,hash冲突等 这里再想想Java中的HashMap怎么优化这个问题--->>> hash函数性能损耗:通过取模(CPU的原生指令)提高效率 hash散列冲突:数组+链表 、数组+红黑树的方式解决冲突 从上面对比我想到,需求的本质就像想做数据映射,通过key和value做映射,value可能是内存地址,可能是hash值, 可能一次映射不够就做两次。 然后想想数据库的索引也就是为了做数据映射,更快更高效的对数据进行增删该查。 在分布式的场景下,我们可以迁移这些思想, 一个数如何据映射到具体节点上,这和一个值映射到具体哪个内存地址有共享。 最后--->>> 老师讲到的hash,一致性hash,有限负载的一致性hash,虚列节点的一致性hash以及它们各种特性比较。 老师总结的非常好,自己对对于这个块知识不是很清楚的地方这次也明白了: 均衡性:也就hash的分散性,老师讲的从两个维度理解。第一:每个节点的数据量要均衡分配,第二:用户访问的请求要均衡的落在每个节点 ,第二个维度可以理解为系统的热点数据访问怎么处理,不能让热点数据成为系统访问的压力,要分散它。 节点异构:我们组的系统刚好做过通过虚拟节点的一致性hash方式实现数据分布,当时一直理解的是虚拟节点再多了一次映射就是为了数据分散 更均衡,老师讲的是因为节点以后的原因,然后通过虚拟节点来实现数据分散,这个本质的今天才get到。 我有2个疑问: 1.如果相同的数据被映射到了不同的节点,空间不是就浪费了? 2.做数据分布映射的时候我们是不是需要考虑有key是单调递增的场景呢? 最后说说老师的课后问题:寻找其它数据分布的方式 散列:老师讲的hash三个都是属于这一类 范围:按照id划分,按照地区,国家,民族等自定义的维度 循环:按照一个步长循环 组合:以上三种方式按照特定场景的组合 个人认为:数据分布,数据分片,索引,hash,负载均衡实现的方式中有共性 疑问:如果我们能把数据按照页的级别分布在不同的节点上,我们是不是可以通过一个可棵 B+树 来组织分布式的数据???
    展开
    共 2 条评论
    11
  • 随心而至
    2019-11-22
    范围分区:通过确定分区键是否在一定范围内来选择分区。比如按照年龄范围分区。 列表分区:为分区分配值列表。比如按照所属国家对用户分区。 循环分区:对于n个分区,将插入顺序中的第i个元组分配给i%n分区 散列函数:将数据的某些字段通过散列函数计算得到分区号。比如Redis。 组合分区:允许上述划分方案的某些组合 参见: https://en.wikipedia.org/wiki/Partition_(database) https://dev.mysql.com/doc/refman/8.0/en/partitioning-types.html
    展开
    3
  • Victor
    2020-01-06
    老师,redis用的不是带有虚拟节点的一致性hash算法么?
    共 4 条评论
    2
  • 乔良qiaoliang
    2020-07-27
    推荐一个实现 https://github.com/golang/groupcache/blob/master/consistenthash/consistenthash.go
    1
  • 王爷
    2020-04-01
    Consistent Hash 在 Dynamo: Amazon’s Highly Available Key-value Store 一文里介绍的比较详细:最初的版本是一个节点(机器)分配一个 token;为了解决可能出现的负载不均衡, 出现了几个变种: 1. T random tokens per node and partition by token value 每个节点分配多个 token (引入 virtual node 虚拟节点概念); Cassandra 参考的 Dynamo,用的是策略一 2. T random tokens per node and equal sized partitions 在每个节点分配多个 token 的同时,将 hashing ring 分割成同等大小的分区 3. Q/S tokens per node, equal-sized partitions: 其中 Q 是分区数,S 是节点数 Redis Cluster 中将 key space 分成 16384 个 slot,之后每个节点分配一部分 slot;和上面的策略 2, 3 比较接近,都是二阶段映射(key 到分区,分区到节点)
    展开
    1
  • 2020-02-19
    很棒,哈希算法、一致性哈希算法、带虚拟节点的哈希算法之前学习过,带负载的哈希算法第一次接触,老师的对比图做的很好。 哈希算法的核心是哈希函数的选择,而且使用哈希算法必然会出现哈希碰撞的问题,解决哈希碰撞问题也有一下非常经典的方式。老师讲的带负载的哈希算法如果负载值是1就是一种解决哈希冲突的方式。 还有什么分区的方式呢?其他同学的评论也提到了一些,散列+范围(数值大小、地理区域、民族、国家)+自定义类别+组合,其他我也不知道,不过哈希算法确实非常经典。 想一想全球有几十亿人,每个人代表一条数据的话,我们被存储在地球上,通过性别、年龄、肤色、国籍、工种、文化程度、社会角色、生死、健康或疾病等等各种各样的维度划分。不过最快的获取一个人的信息的方式就是她的身份证、护照、驾照等方式,唯一标识感觉就是一个主键。如果要找具体的人,就需要时间+空间这两个维度来去定位了,这是否也是一种分区的方式呢?
    展开
    1
  • leslie
    2019-11-22
    哈希这块一直学过可是原理不清楚,为此还去学习算法了解其本源;可是像老师这样清楚的梳理还是没有明白。知其然知其所以然:明白清楚了在数据系统中的使用就更加从容了。
    1
  • Jackey
    2019-11-22
    之前这些方法也都知道,但就是说不清楚,有些也不知道叫什么名。这回终于能说明白了,感觉以后面试又可以吹一波了。至于今天的思考题…能力有限,坐等课代表科普
    共 1 条评论
    1
  • xingoo
    2019-11-22
    按照范围进行分片,典型的代表hbase。 因为它需要根据rowkey范围锁定数据存储的位置,相邻的rowkey数据会按照顺序存储在磁盘,因此在执行rowkey的单位查询时,性能非常快。为了避免单位的热点不均衡,伴随着也有很多差分和合并的机制。
    1
  • aoe
    2022-03-05
    原来Hash有这么多种实现!
  • piboye
    2022-02-17
    hrw和meglv不介绍?至少jump hash要有吧?
  • cxh
    2020-07-11
    这个可能最大的服务亮点就是每章课程都有思维导读,给程哥赞👍,跪舔👍
  • cp★钊
    2020-02-27
    带有限状态的一致性hash也是第一次听,不过一旦带状态,那又得维护好这个映射关系表保证可靠。有空研究下。
  • 一毛钱
    2019-12-15
    根据划定的单位分区,根据指定的规则分区
  • Geek_e986e3
    2019-11-25
    老师 两个问题 1.带有限状态的分布式一致hash 在读取的时候怎么做的呢,打个比方。如果要存储的节点满了。存到顺时针之后好几个节点。但是读的时候。可能节点已经不满了。怎么做到读取呢?每个都遍历一遍吗?有没有更优雅的方法? 2.还是有限状态的。如果所有节点都存满了。一般怎么处理呢?
  • 2019-11-22
    终于明白了一致性哈希算法,关键在于一个环,如何确定环上的数据组成是需要考虑的地方,老师举例中是跟数据等值分布,节点再使用ip哈希定位到环中的某个数据,确定这些后,其实数据会被切分成多份,每个节点对应左边的数据就行。 有限数据一致性哈希是解决稳定性问题的,而带虚拟节点一致性哈希算法是解决节点异构问题的,可以理解成带权重的节点。
    展开
  • 随心而至
    2019-11-22
    有一些疑问: 1.是不是带有限负载的一致性哈希,所有机器的存储上线都只能是同一个上限值吗?按照老师文中它没有解决不同机器的异构性,以及带虚拟节点的一致性哈希就是用来解决该问题,猜测是这样。 2.带有限负载的一致性哈希,是不是可能导致读写的时候查多次,因为有个上线的概念?还是说每个节点都有各个节点保存数据的范围,最多只会转发一次读写。
    展开