39 | 信息流设计(一):通用信息流系统的推模式要如何做?
下载APP
关闭
渠道合作
推荐作者
39 | 信息流设计(一):通用信息流系统的推模式要如何做?
2019-12-23 唐扬 来自北京
《高并发系统设计40问》
课程介绍
讲述:唐扬
时长11:00大小10.08M
你好,我是唐扬。
前两节课中,我带你探究了如何设计和实现互联网系统中一个常见模块——计数系统。它的业务逻辑其实非常简单,基本上最多只有三个接口,获取计数、增加计数和重置计数。所以我们在考虑方案的时候考察点也相对较少,基本上使用缓存就可以实现一个兼顾性能、可用性和鲁棒性的方案了。然而大型业务系统的逻辑会非常复杂,在方案设计时通常需要灵活运用多种技术,才能共同承担高并发大流量的冲击。那么接下来,我将带你了解如何设计社区系统中最为复杂、并发量也最高的信息流系统。这样,你可以从中体会怎么应用之前学习的组件了。
最早的信息流系统起源于微博,我们知道,微博是基于关注关系来实现内容分发的,也就是说,如果用户 A 关注了用户 B,那么用户 A 就需要在自己的信息流中,实时地看到用户 B 发布的最新内容,这是微博系统的基本逻辑,也是它能够让信息快速流通、快速传播的关键。 由于微博的信息流一般是按照时间倒序排列的,所以我们通常把信息流系统称为 TimeLine(时间线)。那么当我们设计一套信息流系统时需要考虑哪些点呢?
设计信息流系统的关注点有哪些
首先,我们需要关注延迟数据,也就是说,你关注的人发了微博信息之后,信息需要在短时间之内出现在你的信息流中。
其次,我们需要考虑如何支撑高并发的访问。信息流是微博的主体模块,是用户进入到微博之后最先看到的模块,因此它的并发请求量是最高的,可以达到每秒几十万次请求。
最后,信息流拉取性能直接影响用户的使用体验。微博信息流系统中需要聚合的数据非常多,你打开客户端看一看,想一想其中需要聚合哪些数据?主要是微博的数据,用户的数据,除此之外,还需要查询微博是否被赞、评论点赞转发的计数、是否被关注拉黑等等。聚合这么多的数据就需要查询多次缓存、数据库、计数器,而在每秒几十万次的请求下,如何保证在 100ms 之内完成这些查询操作,展示微博的信息流呢?这是微博信息流系统最复杂之处,也是技术上最大的挑战。
那么我们怎么设计一套支撑高并发大流量的信息流系统呢?一般来说,会有两个思路:一个是基于推模式,另一个是基于拉模式。
如何基于推模式实现信息流系统
什么是推模式呢?推模式是指用户发送一条微博后,主动将这条微博推送给他的粉丝,从而实现微博的分发,也能以此实现微博信息流的聚合。
假设微博系统是一个邮箱系统,那么用户发送的微博可以认为是进入到一个发件箱,用户的信息流可以认为是这个人的收件箱。推模式的做法是在用户发布一条微博时,除了往自己的发件箱里写入一条微博,同时也会给他的粉丝收件箱里写入一条微博。
假如用户 A 有三个粉丝 B、C、D,如果用 SQL 表示 A 发布一条微博时系统做的事情,那么就像下面展示的这个样子:
当我们要查询 B 的信息流时,只需要执行下面这条 SQL 就可以了:
如果你想要提升读取信息流的性能,可以把收件箱的数据存储在缓存里面,每次获取信息流的时候直接从缓存中读取就好了。
推模式存在的问题和解决思路
你看,按照这个思路就可以实现一套完整的微博信息流系统,也比较符合我们的常识。但是,这个方案会存在一些问题。
首先,就是消息延迟。在讲系统通知未读数的时候,我们曾经提到过,不能采用遍历全量用户给他们加未读数的方式,原因是遍历一次全量用户的延迟很高,而推模式也有同样的问题。对明星来说,他们的粉丝数庞大,如果在发微博的同时还要将微博写入到上千万人的收件箱中,那么发微博的响应时间会非常慢,用户根本没办法接受。因此,我们一般会使用消息队列来消除写入的峰值,但即使这样,由于写入收件箱的消息实在太多,你还是有可能在几个小时之后才能够看到明星发布的内容,这会非常影响用户的使用体验。
在推模式下,你需要关注的是微博的写入性能,因为用户每发一条微博,都会产生多次的数据库写入。为了尽量减少微博写入的延迟,我们可以从两方面来保障。
一方面,在消息处理上,你可以启动多个线程并行地处理微博写入的消息。
另一方面,由于消息流在展示时可以使用缓存来提升读取性能,所以我们应该尽量保证数据写入数据库的性能,必要时可以采用写入性能更好的数据库存储引擎。
比如,我在网易微博的时候就是采用推模式来实现微博信息流的。当时为了提升数据库的插入性能,我们采用了 TokuDB 作为 MySQL 的存储引擎,这个引擎架构的核心是一个名为分形树的索引结构(Fractal Tree Indexes)。我们知道数据库在写入的时候会产生对磁盘的随机写入,造成磁盘寻道,影响数据写入的性能;而分形树结构和我们在11 讲中提到的 LSM 一样,可以将数据的随机写入转换成顺序写入,提升写入的性能。另外,TokuDB 相比于 InnoDB 来说,数据压缩的性能更高,经过官方的测试,TokuDB 可以将存储在 InnoDB 中的 4TB 的数据压缩到 200G,这对于写入数据量很大的业务来说也是一大福音。然而,相比于 InnoDB 来说,TokuDB 的删除和查询性能都要差一些,不过可以使用缓存加速查询性能,而微博的删除频率不高,因此这对于推模式下的消息流来说影响有限。
其次,存储成本很高。在这个方案中我们一般会这么来设计表结构:
先设计一张 Feed 表,这个表主要存储微博的基本信息,包括微博 ID、创建人的 ID、创建时间、微博内容、微博状态(删除还是正常)等等,它使用微博 ID 做哈希分库分表;
另外一张表是用户的发件箱和收件箱表,也叫做 TimeLine 表(时间线表),主要有三个字段,用户 ID、微博 ID 和创建时间。它使用用户的 ID 做哈希分库分表。
由于推模式需要给每一个用户都维护一份收件箱的数据,所以数据的存储量极大,你可以想一想,谢娜的粉丝目前已经超过 1.2 亿,那么如果采用推模式的话,谢娜每发送一条微博就会产生超过 1.2 亿条的数据,多么可怕!我们的解决思路是: 除了选择压缩率更高的存储引擎之外,还可以定期地清理数据,因为用户更加关注最近几天发布的数据,通常不会翻阅很久之前的微博,所以你可以定期地清理用户的收件箱,比如只保留最近 1 个月的数据就可以了。
除此之外,推模式下我们还通常会遇到扩展性的问题。在微博中有一个分组的功能,它的作用是你可以将关注的人分门别类,比如你可以把关注的人分为“明星”“技术”“旅游”等类别,然后把杨幂放入“明星”分类里,将 InfoQ 放在“技术”类别里。那么引入了分组之后,会对推模式有什么样的影响呢? 首先是一个用户不会只有一个收件箱,比如我有一个全局收件箱,还会针对每一个分组再分别创建一个收件箱,而一条微博在发布之后也需要被复制到更多的收件箱中了。
如果杨幂发了一条微博,那么不仅需要插入到我的收件箱中,还需要插入到我的“明星”收件箱中,这样不仅增加了消息分发的压力,同时由于每一个收件箱都需要单独存储,所以存储成本也就更高。
最后,在处理取消关注和删除微博的逻辑时会更加复杂。比如当杨幂删除了一条微博,那么如果要删除她所有粉丝收件箱中的这条微博,会带来额外的分发压力,我们还是尽量不要这么做。
而如果你将一个人取消关注,那么需要从你的收件箱中删除这个人的所有微博,假设他发了非常多的微博,那么即使你之后很久不登录,也需要从你的收件箱中做大量的删除操作,有些得不偿失。所以你可以采用的策略是: 在读取自己信息流的时候,判断每一条微博是否被删除以及你是否还关注这条微博的作者,如果没有的话,就不展示这条微博的内容了。使用了这个策略之后,就可以尽量减少对于数据库多余的写操作了。
那么说了这么多,推模式究竟适合什么样的业务的场景呢? 在我看来,它比较适合于一个用户的粉丝数比较有限的场景,比如说微信朋友圈,你可以理解为我在微信中增加一个好友是关注了他也被他关注,所以好友的上限也就是粉丝的上限(朋友圈应该是 5000)。有限的粉丝数可以保证消息能够尽量快地被推送给所有的粉丝,增加的存储成本也比较有限。如果你的业务中粉丝数是有限制的,那么在实现以关注关系为基础的信息流时,也可以采用推模式来实现。
课程小结
以上就是本节课的全部内容了。本节课我带你了解以推模式实现信息流的方案以及这个模式会存在哪些问题和解决思路,这里你需要了解的重点是:
推模式就是在用户发送微博时,主动将微博写入到他的粉丝的收件箱中;
推送信息是否延迟、存储的成本、方案的可扩展性以及针对取消关注和微博删除的特殊处理是推模式的主要问题;
推模式比较适合粉丝数有限的场景。
你可以看到,其实推模式并不适合微博这种动辄就有上千万粉丝的业务,因为这种业务特性带来的超高的推送消息延迟以及存储成本是难以接受的,因此,我们要么会使用基于拉模式的实现,要么会使用基于推拉结合模式的实现。那么这两种方案是如何实现的呢?他们在实现中会存在哪些坑呢?又要如何解决呢?我将在下节课中带你着重了解。
一课一思
你是否设计过这种信息流系统呢?如果你来设计的话,要如何解决推模式下的延迟问题呢?欢迎在留言区与我分享你的经验。
最后,感谢你的阅读,如果这篇文章让你有所收获,也欢迎你将它分享给更多的朋友。
分享给需要的人,Ta购买本课程,你将得18元
生成海报并分享
赞 10
提建议
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
上一篇
38 | 计数系统设计(二):50万QPS下如何设计未读数系统?
下一篇
40 | 信息流设计(二):通用信息流系统的拉模式要如何做?
精选留言(12)
- 台风骆骆2019-12-23信息流的架构演化 1、一开始很简单,两张表,一张存储关注关系 ,一张存储微博消息,用户A发微博就是在相应的微博消息表中写入一条即可,用户B读微博也很简单,就是先得到自己关注的用户列表,然后定时去存储微博消息表中去读取自己关注的微博展示出来即可,优点是只有一份存储,缺点也很明显,对于这张表的读操作太多了,并发过大。 2、改成推模式,即写扩散机制,用户A发送一条消息,除了写入微博消息表以外,还要写入关注它的所有的用户的收件箱中(这个可以用redis来实现),然后用户去收件箱中读取消息即可,优点就是自己读自己的消息,跟别人没有竞争,缺点是多余存储,在大V用户发微博消息中有延迟,同时写入次数太多了,同时取消关注什么的也比较难操作。 3、后面改成了推拉结合的方式,即对于大V用拉模式,对于普通的用户继续用推模式。 4、后面出现了基于时间分区的拉模式,个人觉得可以结合推模式来进行相应的弥补。展开
作者回复: 👍
47 - tt2019-12-23我觉得推模式最大的问题是没有做到按需传递信息,可能一个粉丝的用户中,只有很少比例才需要较高的时效性,这些用户不应该消耗太多的系统资源。 此外,推模式中的写操作太多了,一个人发送,其他人在本质上都是读取这条消息,却也引发了写入操作。 应该把新的信息写入到若干存储(包括缓存上),然后选择适当的策论,让用户去这些存储上读取数据。这样可以大大降低写入操作的数量。展开
作者回复: 是的
共 2 条评论7 - 追逐繁星的孩纸~2020-01-21老师,我有个疑问,我们是关注文档,使用推模式,新增和更新文档时,就查询有哪些用户关注了这篇文档,然后新增或者更新这些用户的收件箱。这样导致有个问题,一个是写入和更新操作比较多,另外一个是有重复消息或者消息乱序时,会重复更新用户动态或者把用户的动态更新为更早的。因为我们的关注用户量比较少,所以目前还能使用推模式。我想过使用缓存来缓存文档id和操作时间,每次新增或者更新动态时先比较下操作时间,但就需要加分布式锁。这种情况老师有什么建议么?展开
作者回复: 如果关注的人数不多,消息写入没有瓶颈的话,可以继续使用推模式。消息的乱序问题可以通过别的方式解决,比如如果使用Kafka,那么可以把一个人的消息写入到一个固定的partition
6 - 正在减肥的胖籽。2020-04-101.目前我公司的产品,我的做法没用数据库,全部是用redis来存储,用的就是推的模式。一个用户最多关注也就1万多个用户,当发了一条微博,就扔到消息队里面,消息队列再去拉取用户所有关注的人。一个一个放到对应粉丝的redis中。
作者回复: 只有一万的关注,这样做最简单了
共 2 条评论4 - 胖胖程2020-04-08推的时候只给在线用户推一个未读消息数的提示,然后用户在点击未读消息的时候再去拉消息列表。推拉结合着用。
作者回复: 👍
共 2 条评论4 - 知行合一2019-12-23推模式中可以给用户分优先级,优先推送优先级高的用户的方式来提升用户体验。
作者回复: 是的,推拉结合 是这样的
4 - 钱2020-05-10目前还没做过这样的系统,不过想一想数据量确实大一亿个粉丝,每发一条消息需要写一亿条消息,确实有些恐怖,这些大v如果是话唠,那分分钟几亿几十亿的消息需要写入,想想就头疼。存储延迟会比较大和存储空间会花费许多。 不知道微博的数据是怎么存储的?所有数据永久保存嘛?压缩存储?而且为了灾备会分区域存储多份?微博的存储系统做的也一定能讲究啦😄共 1 条评论2
- Jxin2019-12-281.根据分组又建一张表。应该不存全量数据吧,太浪费空间。存与全局收件箱的id映射就好了吧。 2.这个推模式确实有点恐怖。大量写操作简直就是噩梦。硬刚实现这种大量写是不现实的。所以改成拉模式,在登陆时按需拉取。但全量的按需拉取,登陆时的信息同步延迟也是不能接受,所以推拉结合以及更细力度的操作,满满都是权衡。长见识。 3.拉可以批量可以压缩,其实优化的空间会大点。展开
作者回复: 一般收件箱都是记录ID,也就是对应关系,但即使这样,写入量依然很高
2 - skyeinfo2019-12-23老师,对于信息流的缓存存储有什么比较好的建议呢?因为考虑到分页、过滤等筛选条件。
作者回复: 微博是只存储发件箱,并且是按照时间来分为多级缓存,比如把最近五天的微博ID存储到一组缓存里面,所以可以存储全量。 考虑过滤的话,也会存储一些用于过滤的flag信息
共 2 条评论1 - 海罗沃德2019-12-23跟微博比,我們的信息流弱爆了,目前都是用elasticsearch做信息流拉模式,閱讀之後就給當前頁的數據批量設置狀態,拉到下一頁就給下一頁數據更新狀態
作者回复: 存在即合理~
共 2 条评论1 - 剑八2022-04-16推的模式,需要知道对方地址,当接受对象多则发送方压力大,实时性有影响,对方不怎么登录也要触发及时性的推送没有优先级。 拉的按需消费,登录了就查询消息。实时性如果关系数量不大则推实时性高,否则拉性能高。 拉的模式下保存下目标对象的消费进度就可以。
- Luciano李鑫2019-12-23不理解为什么基于推模式要给每个用户甚至每个分组存储一份完整的消息,为什么不能用存储关联关系,计算得到推送的消息呢?
作者回复: 是需要存储微博ID,不存储微博的内容,我不知道你提到的存储关联消息指的是不是这个
1