极客时间已完结课程限时免费阅读

06 | 数据同步:主从库如何实现数据一致?

06 | 数据同步:主从库如何实现数据一致?-极客时间

06 | 数据同步:主从库如何实现数据一致?

讲述:蒋德钧

时长16:25大小15.04M

你好,我是蒋德钧。
前两节课,我们学习了 AOF 和 RDB,如果 Redis 发生了宕机,它们可以分别通过回放日志和重新读入 RDB 文件的方式恢复数据,从而保证尽量少丢失数据,提升可靠性。
不过,即使用了这两种方法,也依然存在服务不可用的问题。比如说,我们在实际使用时只运行了一个 Redis 实例,那么,如果这个实例宕机了,它在恢复期间,是无法服务新来的数据存取请求的。
那我们总说的 Redis 具有高可靠性,又是什么意思呢?其实,这里有两层含义:一是数据尽量少丢失,二是服务尽量少中断。AOF 和 RDB 保证了前者,而对于后者,Redis 的做法就是增加副本冗余量,将一份数据同时保存在多个实例上。即使有一个实例出现了故障,需要过一段时间才能恢复,其他实例也可以对外提供服务,不会影响业务使用。
多实例保存同一份数据,听起来好像很不错,但是,我们必须要考虑一个问题:这么多副本,它们之间的数据如何保持一致呢?数据读写操作可以发给所有的实例吗?
实际上,Redis 提供了主从库模式,以保证数据副本的一致,主从库之间采用的是读写分离的方式。
读操作:主库、从库都可以接收;
写操作:首先到主库执行,然后,主库将写操作同步给从库。
Redis主从库和读写分离
那么,为什么要采用读写分离的方式呢?
你可以设想一下,如果在上图中,不管是主库还是从库,都能接收客户端的写操作,那么,一个直接的问题就是:如果客户端对同一个数据(例如 k1)前后修改了三次,每一次的修改请求都发送到不同的实例上,在不同的实例上执行,那么,这个数据在这三个实例上的副本就不一致了(分别是 v1、v2 和 v3)。在读取这个数据的时候,就可能读取到旧的值。
如果我们非要保持这个数据在三个实例上一致,就要涉及到加锁、实例间协商是否完成修改等一系列操作,但这会带来巨额的开销,当然是不太能接受的。
而主从库模式一旦采用了读写分离,所有数据的修改只会在主库上进行,不用协调三个实例。主库有了最新的数据后,会同步给从库,这样,主从库的数据就是一致的。
那么,主从库同步是如何完成的呢?主库数据是一次性传给从库,还是分批同步?要是主从库间的网络断连了,数据还能保持一致吗?这节课,我就和你聊聊主从库同步的原理,以及应对网络断连风险的方案。
好了,我们先来看看主从库间的第一次同步是如何进行的,这也是 Redis 实例建立主从库模式后的规定动作。

主从库间如何进行第一次同步?

当我们启动多个 Redis 实例的时候,它们相互之间就可以通过 replicaof(Redis 5.0 之前使用 slaveof)命令形成主库和从库的关系,之后会按照三个阶段完成数据的第一次同步。
例如,现在有实例 1(ip:172.16.19.3)和实例 2(ip:172.16.19.5),我们在实例 2 上执行以下这个命令后,实例 2 就变成了实例 1 的从库,并从实例 1 上复制数据:
replicaof 172.16.19.3 6379
接下来,我们就要学习主从库间数据第一次同步的三个阶段了。你可以先看一下下面这张图,有个整体感知,接下来我再具体介绍。
主从库第一次同步的流程
第一阶段是主从库间建立连接、协商同步的过程,主要是为全量复制做准备。在这一步,从库和主库建立起连接,并告诉主库即将进行同步,主库确认回复后,主从库间就可以开始同步了
具体来说,从库给主库发送 psync 命令,表示要进行数据同步,主库根据这个命令的参数来启动复制。psync 命令包含了主库的 runID复制进度 offset 两个参数。
runID,是每个 Redis 实例启动时都会自动生成的一个随机 ID,用来唯一标记这个实例。当从库和主库第一次复制时,因为不知道主库的 runID,所以将 runID 设为“?”。
offset,此时设为 -1,表示第一次复制。
主库收到 psync 命令后,会用 FULLRESYNC 响应命令带上两个参数:主库 runID 和主库目前的复制进度 offset,返回给从库。从库收到响应后,会记录下这两个参数。
这里有个地方需要注意,FULLRESYNC 响应表示第一次复制采用的全量复制,也就是说,主库会把当前所有的数据都复制给从库
在第二阶段,主库将所有数据同步给从库。从库收到数据后,在本地完成数据加载。这个过程依赖于内存快照生成的 RDB 文件。
具体来说,主库执行 bgsave 命令,生成 RDB 文件,接着将文件发给从库。从库接收到 RDB 文件后,会先清空当前数据库,然后加载 RDB 文件。这是因为从库在通过 replicaof 命令开始和主库同步前,可能保存了其他数据。为了避免之前数据的影响,从库需要先把当前数据库清空。
在主库将数据同步给从库的过程中,主库不会被阻塞,仍然可以正常接收请求。否则,Redis 的服务就被中断了。但是,这些请求中的写操作并没有记录到刚刚生成的 RDB 文件中。为了保证主从库的数据一致性,主库会在内存中用专门的 replication buffer,记录 RDB 文件生成后收到的所有写操作。
最后,也就是第三个阶段,主库会把第二阶段执行过程中新收到的写命令,再发送给从库。具体的操作是,当主库完成 RDB 文件发送后,就会把此时 replication buffer 中的修改操作发给从库,从库再重新执行这些操作。这样一来,主从库就实现同步了。

主从级联模式分担全量复制时的主库压力

通过分析主从库间第一次数据同步的过程,你可以看到,一次全量复制中,对于主库来说,需要完成两个耗时的操作:生成 RDB 文件和传输 RDB 文件。
如果从库数量很多,而且都要和主库进行全量复制的话,就会导致主库忙于 fork 子进程生成 RDB 文件,进行数据全量同步。fork 这个操作会阻塞主线程处理正常请求,从而导致主库响应应用程序的请求速度变慢。此外,传输 RDB 文件也会占用主库的网络带宽,同样会给主库的资源使用带来压力。那么,有没有好的解决方法可以分担主库压力呢?
其实是有的,这就是“主 - 从 - 从”模式。
在刚才介绍的主从库模式中,所有的从库都是和主库连接,所有的全量复制也都是和主库进行的。现在,我们可以通过“主 - 从 - 从”模式将主库生成 RDB 和传输 RDB 的压力,以级联的方式分散到从库上
简单来说,我们在部署主从集群的时候,可以手动选择一个从库(比如选择内存资源配置较高的从库),用于级联其他的从库。然后,我们可以再选择一些从库(例如三分之一的从库),在这些从库上执行如下命令,让它们和刚才所选的从库,建立起主从关系。
replicaof 所选从库的IP 6379
这样一来,这些从库就会知道,在进行同步时,不用再和主库进行交互了,只要和级联的从库进行写操作同步就行了,这就可以减轻主库上的压力,如下图所示:
级联的“主-从-从”模式
好了,到这里,我们了解了主从库间通过全量复制实现数据同步的过程,以及通过“主 - 从 - 从”模式分担主库压力的方式。那么,一旦主从库完成了全量复制,它们之间就会一直维护一个网络连接,主库会通过这个连接将后续陆续收到的命令操作再同步给从库,这个过程也称为基于长连接的命令传播,可以避免频繁建立连接的开销。
听上去好像很简单,但不可忽视的是,这个过程中存在着风险点,最常见的就是网络断连或阻塞。如果网络断连,主从库之间就无法进行命令传播了,从库的数据自然也就没办法和主库保持一致了,客户端就可能从从库读到旧数据。
接下来,我们就来聊聊网络断连后的解决办法。

主从库间网络断了怎么办?

在 Redis 2.8 之前,如果主从库在命令传播时出现了网络闪断,那么,从库就会和主库重新进行一次全量复制,开销非常大。
从 Redis 2.8 开始,网络断了之后,主从库会采用增量复制的方式继续同步。听名字大概就可以猜到它和全量复制的不同:全量复制是同步所有数据,而增量复制只会把主从库网络断连期间主库收到的命令,同步给从库。
那么,增量复制时,主从库之间具体是怎么保持同步的呢?这里的奥妙就在于 repl_backlog_buffer 这个缓冲区。我们先来看下它是如何用于增量命令的同步的。
当主从库断连后,主库会把断连期间收到的写操作命令,写入 replication buffer,同时也会把这些操作命令也写入 repl_backlog_buffer 这个缓冲区。
repl_backlog_buffer 是一个环形缓冲区,主库会记录自己写到的位置,从库则会记录自己已经读到的位置
刚开始的时候,主库和从库的写读位置在一起,这算是它们的起始位置。随着主库不断接收新的写操作,它在缓冲区中的写位置会逐步偏离起始位置,我们通常用偏移量来衡量这个偏移距离的大小,对主库来说,对应的偏移量就是 master_repl_offset。主库接收的新写操作越多,这个值就会越大。
同样,从库在复制完写操作命令后,它在缓冲区中的读位置也开始逐步偏移刚才的起始位置,此时,从库已复制的偏移量 slave_repl_offset 也在不断增加。正常情况下,这两个偏移量基本相等。
Redis repl_backlog_buffer的使用
主从库的连接恢复之后,从库首先会给主库发送 psync 命令,并把自己当前的 slave_repl_offset 发给主库,主库会判断自己的 master_repl_offset 和 slave_repl_offset 之间的差距。
在网络断连阶段,主库可能会收到新的写操作命令,所以,一般来说,master_repl_offset 会大于 slave_repl_offset。此时,主库只用把 master_repl_offset 和 slave_repl_offset 之间的命令操作同步给从库就行。
就像刚刚示意图的中间部分,主库和从库之间相差了 put d e 和 put d f 两个操作,在增量复制时,主库只需要把它们同步给从库,就行了。
说到这里,我们再借助一张图,回顾下增量复制的流程。
Redis增量复制流程
不过,有一个地方我要强调一下,因为 repl_backlog_buffer 是一个环形缓冲区,所以在缓冲区写满后,主库会继续写入,此时,就会覆盖掉之前写入的操作。如果从库的读取速度比较慢,就有可能导致从库还未读取的操作被主库新写的操作覆盖了,这会导致主从库间的数据不一致
因此,我们要想办法避免这一情况,一般而言,我们可以调整 repl_backlog_size 这个参数。这个参数和所需的缓冲空间大小有关。缓冲空间的计算公式是:缓冲空间大小 = 主库写入命令速度 * 操作大小 - 主从库间网络传输命令速度 * 操作大小。在实际应用中,考虑到可能存在一些突发的请求压力,我们通常需要把这个缓冲空间扩大一倍,即 repl_backlog_size = 缓冲空间大小 * 2,这也就是 repl_backlog_size 的最终值。
举个例子,如果主库每秒写入 2000 个操作,每个操作的大小为 2KB,网络每秒能传输 1000 个操作,那么,有 1000 个操作需要缓冲起来,这就至少需要 2MB 的缓冲空间。否则,新写的命令就会覆盖掉旧操作了。为了应对可能的突发压力,我们最终把 repl_backlog_size 设为 4MB。
这样一来,增量复制时主从库的数据不一致风险就降低了。不过,如果并发请求量非常大,连两倍的缓冲空间都存不下新操作请求的话,此时,主从库数据仍然可能不一致。
针对这种情况,一方面,你可以根据 Redis 所在服务器的内存资源再适当增加 repl_backlog_size 值,比如说设置成缓冲空间大小的 4 倍,另一方面,你可以考虑使用切片集群来分担单个主库的请求压力。关于切片集群,我会在第 9 讲具体介绍。

小结

这节课,我们一起学习了 Redis 的主从库同步的基本原理,总结来说,有三种模式:全量复制、基于长连接的命令传播,以及增量复制。
全量复制虽然耗时,但是对于从库来说,如果是第一次同步,全量复制是无法避免的,所以,我给你一个小建议:一个 Redis 实例的数据库不要太大,一个实例大小在几 GB 级别比较合适,这样可以减少 RDB 文件生成、传输和重新加载的开销。另外,为了避免多个从库同时和主库进行全量复制,给主库过大的同步压力,我们也可以采用“主 - 从 - 从”这一级联模式,来缓解主库的压力。
长连接复制是主从库正常运行后的常规同步阶段。在这个阶段中,主从库之间通过命令传播实现同步。不过,这期间如果遇到了网络断连,增量复制就派上用场了。我特别建议你留意一下 repl_backlog_size 这个配置参数。如果它配置得过小,在增量复制阶段,可能会导致从库的复制进度赶不上主库,进而导致从库重新进行全量复制。所以,通过调大这个参数,可以减少从库在网络断连时全量复制的风险。
不过,主从库模式使用读写分离虽然避免了同时写多个实例带来的数据不一致问题,但是还面临主库故障的潜在风险。主库故障了从库该怎么办,数据还能保持一致吗,Redis 还能正常提供服务吗?在接下来的两节课里,我会和你具体聊聊主库故障后,保证服务可靠性的解决方案。

每课一问

按照惯例,我给你提一个小问题。这节课,我提到,主从库间的数据复制同步使用的是 RDB 文件,前面我们学习过,AOF 记录的操作命令更全,相比于 RDB 丢失的数据更少。那么,为什么主从库间的复制不使用 AOF 呢?
好了,这节课就到这里,如果你觉得有收获,欢迎你帮我把今天的内容分享给你的朋友。
分享给需要的人,Ta购买本课程,你将得20
生成海报并分享

赞 173

提建议

上一篇
05 | 内存快照:宕机后,Redis如何实现快速恢复?
下一篇
07 | 哨兵机制:主库挂了,如何不间断服务?
unpreview
 写留言

精选留言(190)

  • Geek_121747
    置顶
    2020-08-17
    老师,我对repl_backlog_buffer有点疑问, 文中描述1:“因为 repl_backlog_buffer 是一个环形缓冲区,所以在缓冲区写满后,主库会继续写入,此时,就会覆盖掉之前写入的操作。如果从库的读取速度比较慢,就有可能导致从库还未读取的操作被主库新写的操作覆盖了,这会导致主从库间的数据不一致。” 文中描述2:我特别建议你留意一下 repl_backlog_size 这个配置参数。如果它配置得过小,在增量复制阶段,可能会导致从库的复制进度赶不上主库,进而导致从库重新进行全量复制。 我的疑问是,如果在网络断开期间,repl_backlog_size环形缓冲区写满之后,从库是会丢失掉那部分被覆盖掉的数据,还是直接进行全量复制呢?
    展开

    作者回复: 我看到还有几个同学在问类似的这个问题,大家都思考的很仔细,非常好! 对于这个问题来说,有两个关键点: 1. 一个从库如果和主库断连时间过长,造成它在主库repl_backlog_buffer的slave_repl_offset位置上的数据已经被覆盖掉了,此时从库和主库间将进行全量复制。 2. 每个从库会记录自己的slave_repl_offset,每个从库的复制进度也不一定相同。在和主库重连进行恢复时,从库会通过psync命令把自己记录的slave_repl_offset发给主库,主库会根据从库各自的复制进度,来决定这个从库可以进行增量复制,还是全量复制。

    共 30 条评论
    236
  • 健康创客小辉辉
    置顶
    2022-06-24
    涨知识了
  • Kaito
    2020-08-17
    主从全量同步使用RDB而不使用AOF的原因: 1、RDB文件内容是经过压缩的二进制数据(不同数据类型数据做了针对性优化),文件很小。而AOF文件记录的是每一次写操作的命令,写操作越多文件会变得很大,其中还包括很多对同一个key的多次冗余操作。在主从全量数据同步时,传输RDB文件可以尽量降低对主库机器网络带宽的消耗,从库在加载RDB文件时,一是文件小,读取整个文件的速度会很快,二是因为RDB文件存储的都是二进制数据,从库直接按照RDB协议解析还原数据即可,速度会非常快,而AOF需要依次重放每个写命令,这个过程会经历冗长的处理逻辑,恢复速度相比RDB会慢得多,所以使用RDB进行主从全量同步的成本最低。 2、假设要使用AOF做全量同步,意味着必须打开AOF功能,打开AOF就要选择文件刷盘的策略,选择不当会严重影响Redis性能。而RDB只有在需要定时备份和主从全量同步数据时才会触发生成一次快照。而在很多丢失数据不敏感的业务场景,其实是不需要开启AOF的。 另外,需要指出老师文章的错误:“当主从库断连后,主库会把断连期间收到的写操作命令,写入 replication buffer,同时也会把这些操作命令也写入 repl_backlog_buffer 这个缓冲区。” 1、主从库连接都断开了,哪里来replication buffer呢? 2、应该不是“主从库断连后”主库才把写操作写入repl_backlog_buffer,只要有从库存在,这个repl_backlog_buffer就会存在。主库的所有写命令除了传播给从库之外,都会在这个repl_backlog_buffer中记录一份,缓存起来,只有预先缓存了这些命令,当从库断连后,从库重新发送psync $master_runid $offset,主库才能通过$offset在repl_backlog_buffer中找到从库断开的位置,只发送$offset之后的增量数据给从库即可。 有同学对repl_backlog_buffer和replication buffer理解比较混淆,我大概解释一下: 1、repl_backlog_buffer:就是上面我解释到的,它是为了从库断开之后,如何找到主从差异数据而设计的环形缓冲区,从而避免全量同步带来的性能开销。如果从库断开时间太久,repl_backlog_buffer环形缓冲区被主库的写命令覆盖了,那么从库连上主库后只能乖乖地进行一次全量同步,所以repl_backlog_buffer配置尽量大一些,可以降低主从断开后全量同步的概率。而在repl_backlog_buffer中找主从差异的数据后,如何发给从库呢?这就用到了replication buffer。 2、replication buffer:Redis和客户端通信也好,和从库通信也好,Redis都需要给分配一个 内存buffer进行数据交互,客户端是一个client,从库也是一个client,我们每个client连上Redis后,Redis都会分配一个client buffer,所有数据交互都是通过这个buffer进行的:Redis先把数据写到这个buffer中,然后再把buffer中的数据发到client socket中再通过网络发送出去,这样就完成了数据交互。所以主从在增量同步时,从库作为一个client,也会分配一个buffer,只不过这个buffer专门用来传播用户的写命令到从库,保证主从数据一致,我们通常把它叫做replication buffer。 3、再延伸一下,既然有这个内存buffer存在,那么这个buffer有没有限制呢?如果主从在传播命令时,因为某些原因从库处理得非常慢,那么主库上的这个buffer就会持续增长,消耗大量的内存资源,甚至OOM。所以Redis提供了client-output-buffer-limit参数限制这个buffer的大小,如果超过限制,主库会强制断开这个client的连接,也就是说从库处理慢导致主库内存buffer的积压达到限制后,主库会强制断开从库的连接,此时主从复制会中断,中断后如果从库再次发起复制请求,那么此时可能会导致恶性循环,引发复制风暴,这种情况需要格外注意。
    展开
    共 99+ 条评论
    1274
  • 注定非凡
    2020-08-22
    一,作者讲了什么? Redis的主从库数据同步机制的诞生背景和运行机制 二,作者是怎么把这事给讲明白的? 1, 作者首先介绍了主从库诞生需求背景:(写到这让我想起许式伟在架构课中提到的:拆解架构的两个核心:需求和规格) 为了实现Redis的高可用性,需要有多个redis实例,并且要保证多个实例数据一致(CAP定理:一致性,可用性,分区容错性) 2,介绍Redis的主从库间的工作机制:读写分离,主库负责接收读写请求,从库负责接收读请求,为保证从库可以正确的响应读请求,主库需要向从库同步数据 3,详细介绍了主从同步的机制:同步时间,同步内容,异常处理,失败补偿 三,作者为了讲明白,讲了哪些要点?有哪些亮点? 1,亮点1:Redis采用读写分离的好处:避免了加锁,实例间协商是否完成修改等复杂操作 1,亮点2:全量同步的发生时机:首次上线 和 从库的环形缓冲区位置标识被覆盖 2,亮点3:增量同步保障机制依赖于一个特殊的数据结构:环形缓冲区 3,要点1:首次同步分为三个阶段,①:建立连接,②:同步RDB文件,③:同步增量数据 4,要点2:全量同步需要主机fork子进程,产生全量RDB文件,并发送,为了减轻主机的压力,从机之间也可用互相同步 5,要点3:增量同步可以缓解主机全量同步的压力,它需要特殊机制保障:replication buffer,环形缓冲区,master_repl_offset,slave_repl_offset 6,要点4:从机的同步位置标识,在环形缓冲区被覆盖后,会触发新的一轮全量同步,所repl_backlog_buffer的大小是redis重要的调优参数 7,要点5:主从同步有三种机制:全量同步,基于长链接的命令传播(在写这个笔记时把它忽略了),增量同步 四,对于作者所讲,我有哪些发散性思考? 1,作者在介绍数据备份和数据同步时,都提到了单个redis的实例不宜过大 2,同步机制不止是redis需要,kafka,mysql中也需要,这个需要去看看他们是怎么设计的 3,作者介绍的redis数据一致性保障机制是很有趣,对于异常的处理机制值得学习 五,在未来的哪些场景里,我能够使用它? 1,以后面试,redis的数据备份和数同步可以不怂了 2,分布式系统的三定律有了联系对象 六,评论区的收获 从@Kaito 大神 那里了解到, 1,repl_backlog_buffer,是随着主机一起诞生的 2,主机和所有的clent端(包括从机)都会建立一个对应的buffer 3,replication buffer是与每个clent端一一对应 4,redis的所有写命令除了用于长链接广播,还都会写入repl_backlog_buffer
    展开
    共 11 条评论
    99
  • 不负青春不负己🤘
    2020-08-18
    我问个问题 psync 这个动作 执行 RDB 全量数据,是直接传输到从库上,还是先落到主redis 磁盘上

    作者回复: Redis在全量复制时,既支持先生成RDB文件,再把RDB文件传给从库,也支持在主库上直接通过socket把数据传给从库,这称为无盘复制。 如果运行主库的机器磁盘性能不太好,但是网络性能不错的话,可以考虑无盘复制。

    共 5 条评论
    43
  • Mr.蜜
    2020-08-17
    我有一个疑问,环形缓冲期再大,也会出问题,那么如果遇到这类问题,导致数据不同步怎么处理?比方说,一个从库长断网以后,长时间没有联网处理。

    作者回复: 没错,环形缓冲区再大,在某些时候,就如你所说的从库长期断网时,也会出问题。 其实从库正常情况下会每秒给主库发送一个replconf ack命令,主库会根据这个命令的达到时间判断和从库的连网情况。如果距离最后一次ack命令收到的时间已经超过了repl_timeout时间,就会和从库断开连接了。 从库再和主库连接时,会发送自己的复制进度,如果要复制内容在缓冲区中已经被覆盖了,那么就不再做增量复制了,而是进行全量复制。

    共 5 条评论
    35
  • 祝康力
    2020-08-18
    老师,主从库的复制,是异步的吗?那就保证不了强一制了,文章没有提及这一点

    作者回复: Redis主从库的复制是异步的,主库收到命令操作后,在本地执行完成后,就会返回给客户端,并不会等到和从库同步完成后才返回给客户端。 如果从库同步较慢的话,例如从库正在执行bigkey操作,那么复制进度就会落后,此时,从库数据不是强一致性保证。

    共 8 条评论
    29
  • Darren
    2020-08-17
    上一条评论有误,已经删除,请通过本条评论 repl_backlog_size这个参数很重要,因为如果满了,就需要重新全量复制,默认是1M,所以之前网上就流传1个段子,如果一个公司说自己体量如何大,技术多么牛,要是repl_backlog_size参数是默认值,基本可以认为要不业务体量吹牛逼了,要不就没有真正的技术牛人。 主从复制的另一种方式:基于硬盘和无盘复制 可以通过这个参数设置 repl-diskless-sync 复制集同步策略:磁盘或者socket 新slave连接或者老slave重新连接时候不能只接收不同,得做一个全同步。需要一个新的RDB文件dump出来,然后从master传到slave。可以有两种情况: 1)基于硬盘(disk-backed):master创建一个新进程dump RDB,完事儿之后由父进程(即主进程)增量传给slaves。 2)基于socket(diskless):master创建一个新进程直接dump RDB到slave的socket,不经过主进程,不经过硬盘。 当基于 disk-backed 复制时,当 RDB 文件生成完毕,多个 replicas 通过排队来同步 RDB 文件。 当基于diskless的时候,master等待一个repl-diskless-sync-delay的秒数,如果没slave来的话,就直接传,后来的得排队等了。否则就可以一起传。适用于disk较慢,并且网络较快的时候,可以用diskless。(默认用disk-based) 回答下课后问题: 1、RDB读取快,这样从库可以尽快完成RDB的读取,然后入去消费replication buffer的数据。如果是AOF的话,AOF体积大,读取慢,需要更大的replication buffer,如果一个主节点的从节点多的话,就需要更大的内存去处理; 2、AOF文件是append追加模式,同时读写需要考虑并发安全问题,并且AOF是文本文件,体积较大,浪费网络带宽。 最后问老师个问题哈,就是bgsave生成的rdb文件什么时候“过期”,或者有过期的说法吗?比如我2个从节点执行replicaof(或者slaveof),主节点是同一个,这中情况下,rdb生成1次还是2次?
    展开
    共 4 条评论
    27
  • 我不用网名
    2020-08-17
    看了课程内容,不看评论绝对是一种损失

    作者回复: 咱们评论区有不少同学的回复都很棒,思考问题非常仔细、周全和深入。 读评论区是一次非常好的再学习过程 :)

    共 3 条评论
    18
  • QFY
    2020-08-17
    课后题: aof记录的是命令,如果是首次主从全量复制,而且如果aof文件还没被重写会存在对一个key的反复操作,那么效率会比较低 疑问: 【repl_backlog_buffer 是一个环形缓冲区,主库会记录自己写到的位置,从库则会记录自己已经读到的位置】针对这一句,这个repl_backlog_buffer是在主库上面,但是他同时要记录master_repl_offset和slave_repl_offset,这个slave_repl_offset是每个从库记录一个还是共用一个?如果是共用一个,那如果有两个从库正在恢复,一个正常恢复把slave_repl_offset往前推了,另一个从库在恢复的过程中又断了,但是再恢复的时候slave_repl_offset已经往前推了,中间就有一部分数据丢失了,这个情况该怎么办了(这个情况可能有点极端)
    展开

    作者回复: 善于思考,非常棒! repl_backlog_buffer是所有从库共享的,不过正如文章中说的,slave_repl_offset是由从库自己记录的,这也是因为每个从库的复制进度不一定相同。 从库断连后再恢复时,会给主库发送psync命令,并把自己当前的slave_repl_offset发给主库。所以,在你所说的情况下,正常恢复的从库推进的slave_repl_offset是它自己记录的,不会影响到第二个从库。 第二个从库断连后再恢复,只要slave_repl_offset指向的数据没有被覆盖,就能继续恢复。 希望解答了你的问题 :)

    共 2 条评论
    17
  • Geek_33c084
    2020-08-18
    主从复制的流程:1.建立链接;2.rdb全量复制;2.网络长链接复制。 主-从-从的级联主从复制模式:减少主库的bgsave压力,减少网络传输的压力 断网重连:repl_backlog_size环形缓冲区,存在覆盖情况。主库还可以根据slave_repl_offset判断是全量复制,还是增量复制

    作者回复: 不错的总结!

    12
  • 曾轼麟
    2020-08-18
    使用RDB主要是有以下几个原因: 1、首先RDB和AOF最大的区别就是,RDB是内存快照,而AOF记录的是数据变化的过程,在全量初始化的情况下肯定是快照更优,RDB作为数据初始化的方式也更加快 2、是针对RDB和AOF的文件大小问题,AOF是数据变化的过程(动态变化),相比于RDB不利于压缩,使用RDB在传输文件的时候可以更好的节约网络资源 3、进行主从同步并不是只使用RDB,而是RDB + 缓冲区的方式,这样可以保证bgsave期间的数据任然能同步 在生产环境中主从复制会经常出现以下两种情况:1、从服务器重启,2、主服务器宕机 在早期Redis中每次出现意外进行重新同步都是使用RDB的方式(sync),会导致很大的开销,于是在Redis2.8开始实现了部分重同步的功能psync psync 的格式如下:psync <Master-Run-ID> <OFFSET> ,通过缓冲区 + offset的方式来避免每次进行完全重同步 为了保证数据的最终一致性现如今Redis也具备两种同步方式: 1、完全重同步(RDB同步) 2、部分重同步(缓冲区同步) 【完全重同步】的开销是很大的(走bgsave),生产环境中希望尽可能的使用【部分重同步】,但是【部分重同步】的条件也比较苛刻条件如下: 1、从服务器两次执行 RUN_ID 必须相等 2、复制偏移量必须包含在复制缓冲区中 也由于这些原因,Redis4.0的时候提出了psync2的方式,主要改进点在两个方面: 1、RDB文件中用于存放辅助字段的 AUX_FIELD_KEY_VALUE_PAIRS 中保存主服务器的RUN_ID,当从服务器恢复的时候能避免进行完全重同步 2、在新易主的服务器中冗余上一个主服务器的RUN_ID 和 offset 分别存放在 server.replid2 和 server.second_replid_offset 这两个字段中,这样避免主从切换后发生完全重同步
    展开
    共 2 条评论
    10
  • 赖阿甘
    2020-08-17
    我有个疑问,为什么要有两个缓冲区,replication buffer和repl_backlog_buffer ,这两个缓冲区的区别是什么?replication buffer缓冲区是每个从库的连接都有一个吗?按照我的理解,replication buffer在第一次连接时完成全量复制(包括复制期间主库又接收到的新操作),进入长连接复制之后这个缓冲区就应该没有作用了,但是为什么主从断联之后,主库还要把接受到的写命令都记录到这两个缓冲区,照理说只需要记录到repl_backlog_buffer就可以了,还望老师解答
    展开
    共 10 条评论
    10
  • 等风来🎧
    2020-08-17
    如果并大量特别大,增量复制的时候,从库的消费的偏移量仍不在主库的环形缓存池中,应该会进行一次全量复制,这个老师好像没有提到

    作者回复: 咱们有同学问到了类似slave_repl_offset被覆盖的这个问题,你的回复就是答案。 :) 我在文章小结中有提到了一句“通过调大这个参数(repl_backlog_size),可以减少从库在网络断连时全量复制的风险”,这种情况就是因为repl_backlog被覆盖写了,导致从库开始全量复制。不过这句的确不明显,不容易让大家注意,都是我的错。。。

    10
  • Geek_121747
    2020-08-17
    每课一问:1.因为AOF文件比RDB文件大,网络传输比较耗时, 2.从库在初始化数据时,RDB文件比AOF文件执行更快
    共 1 条评论
    10
  • Geek_e0ee48
    2020-08-26
    你好,老师: 请教下,由于redis的读写分离和命令传播,那么主库和从库势必存在数据不一致的瞬间。当应用读到这种不一致的数据需要怎么处理?
    共 3 条评论
    9
  • heyman
    2020-08-20
    老师,客户端写入数据只能从主库写入,读数据可以从主库或者从库读取。请问这个是怎么控制的?客户端要自己实现吗?客户端是怎么知道要往哪个节点写?

    作者回复: 这个需要客户端实现(例如Redisson客户端),或者在客户端和集群间增加一个proxy才行,由客户端或proxy先行判断是读操作还是写操作,再把读、写操作发给从库或主库

    共 2 条评论
    9
  • 慌张而黑糖
    2020-09-15
    不知道有没有很极端的情况,就是主库的偏移量的绕着环形缓冲区转一圈又跑到从库的前面。
    共 4 条评论
    8
  • 似水
    2020-11-18
    有个疑问,怎么保证读取的数据是最新的?从主库中写操作之后同步到从库需要时间的吧,那这段时间的读取怎么办呢
    共 2 条评论
    7
  • 2020-08-18
    我有个疑问,redis我记得是AOF和RDB只能选择一个,要么开启AOF,要么开启RDB,如果master开启了AOF,那这是的RDB又怎么开启的呢?还是说master会同时开启AOF和RDB?

    作者回复: Redis中RDB是默认开启的。同时,你可以在配置文件中设置appendonly yes,这样就可以把AOF也开启了。 在RDB和AOF同时开启后,在进行恢复时,会优先使用AOF进行恢复。

    共 6 条评论
    7