极客时间已完结课程限时免费阅读

10 | Lambda架构:Twitter亿级实时数据分析架构背后的倚天剑

10 | Lambda架构:Twitter亿级实时数据分析架构背后的倚天剑-极客时间

10 | Lambda架构:Twitter亿级实时数据分析架构背后的倚天剑

讲述:巴莫

时长13:07大小12.00M

你好,我是蔡元楠。
今天我要与你分享的主题是 Lambda 架构。
通过这一讲,你可以了解什么是 Lambda 架构,以及它为什么能够成为 Twitter 亿级实时数据分析架构背后的“倚天剑”。
在学习了架构师的必备技能后,你是否已经摩拳擦掌,跃跃欲试地想要上手一个实际项目了呢?没问题,我们一起来看一个我的架构经历里的真实项目。
情况是这样的,我们正运行着广告精准投放业务,并且拥有海量的用户网站访问行为。我们需要进行用户行为分析来建立一个模型,然后根据这个模型来投放用户喜好的广告。
你可能想到了批处理架构。没错,这个时候数据批处理架构无疑是一种很好的选择。
可是我们不要忘了,之前讲过批处理架构有着高延时性的不足,而互联网用户行为的数据往往可以达到 Pb 或 Eb,甚至是 Zb 的级别。做这种分析挖掘用户行为的任务,往往能耗时好几个小时甚至是几天。这样的话,我们根据模型精准投放给特定用户的广告就会有一定延时了。
那我们只用流处理架构行不行呢?
在广告精准投放的业务需求下,只用流处理架构会造成忽略了用户的历史网站访问行为,一些异常行为可能会让我们的服务投放错误的广告。
例如,用户 A 的电脑暂时借给用户 B 使用了一下,而用户 B 浏览了一些新的网站类型(与用户 A 不同)。这种情况下,我们无法判断用户 A 实际上是否对这类型的广告感兴趣,所以不能根据这些新的浏览记录给用户 A 推送广告。
这个时候应该怎么优化我们的架构呢?我们先把问题放一放,在介绍完了 Lambda 架构之后或许会对你有所启发。

Lambda 架构

Lambda 架构(Lambda Architecture)是由 Twitter 工程师南森·马茨(Nathan Marz)提出的大数据处理架构。这一架构的提出基于马茨在 BackType 和 Twitter 上的分布式数据处理系统的经验。
Lambda 架构使开发人员能够构建大规模分布式数据处理系统。它具有很好的灵活性和可扩展性,也对硬件故障和人为失误有很好的容错性。
Lambda 架构总共由三层系统组成:批处理层(Batch Layer),速度处理层(Speed Layer),以及用于响应查询的服务层(Serving Layer)。
在 Lambda 架构中,每层都有自己所肩负的任务。
批处理层存储管理主数据集(不可变的数据集)和预先批处理计算好的视图。
批处理层使用可处理大量数据的分布式处理系统预先计算结果。它通过处理所有的已有历史数据来实现数据的准确性。这意味着它是基于完整的数据集来重新计算的,能够修复任何错误,然后更新现有的数据视图。输出通常存储在只读数据库中,更新则完全取代现有的预先计算好的视图。
速度处理层会实时处理新来的大数据。
速度层通过提供最新数据的实时视图来最小化延迟。速度层所生成的数据视图可能不如批处理层最终生成的视图那样准确或完整,但它们几乎在收到数据后立即可用。而当同样的数据在批处理层处理完成后,在速度层的数据就可以被替代掉了。
本质上,速度层弥补了批处理层所导致的数据视图滞后。比如说,批处理层的每个任务都需要 1 个小时才能完成,而在这 1 个小时里,我们是无法获取批处理层中最新任务给出的数据视图的。而速度层因为能够实时处理数据给出结果,就弥补了这 1 个小时的滞后。
所有在批处理层和速度层处理完的结果都输出存储在服务层中,服务层通过返回预先计算的数据视图或从速度层处理构建好数据视图来响应查询。
好了,我们回到刚刚的问题中。我们如何做到既能实时分析用户新的网站浏览行为又能兼顾到用户的网站浏览行为历史呢?没错,就是利用 Lambda 架构。
所有的新用户行为数据都可以同时流入批处理层和速度层。批处理层会永久保存数据并且对数据进行预处理,得到我们想要的用户行为模型并写入服务层。而速度层也同时对新用户行为数据进行处理,得到实时的用户行为模型。
而当“应该对用户投放什么样的广告”作为一个查询(Query)来到时,我们从服务层既查询服务层中保存好的批处理输出模型,也对速度层中处理的实时行为进行查询,这样我们就可以得到一个完整的用户行为历史了。
一个查询就如下图所示,既通过批处理层兼顾了数据的完整性,也可以通过速度层弥补批处理层的高延时性,让整个查询具有实时性。
Lambda 架构在硅谷一线大公司的应用已经十分广泛,我来带你一起看看一些实际的应用场景。

Twitter 的数据分析案例

Twitter 在欧美十分受欢迎,而 Twitter 中人们所发 Tweet 里面的 Hashtag 也常常能引爆一些热搜词汇,也就是 Most Popular Hashtags。下面我来给你讲述一下如何利用 Lambda 架构来实时分析这些 Hashtags。
在这个实际案例里,我们先用 twitter4J 的流处理 API 抓取实时的 Twitter 推文,同时利用 Apache Kafka 将抓取到的数据保存并实时推送给批处理层和速度层。
因为 Apache Spark 平台中既有批处理架构也兼容了流处理架构,所以我们选择在批处理层和速度层都采用 Apache Spark 来读取来自 Apache Kafka 的数据。
批处理层和速度层在分析处理好数据后会将数据视图输出存储在服务层中,我们将使用 Apache Cassandra 平台来存储他们的数据视图。Apache Cassandra 将批处理层的视图数据和速度层的实时视图数据结合起来,就可以得到一系列有趣的数据。
例如,我们根据每一条 Tweet 中元数据(Metadata)里的 location field,可以得知发推文的人的所在地。而服务层中的逻辑可以根据这个地址信息进行分组,然后统计在不同地区的人所关心的 Hashtag 是什么。
时间长达几周或者的几个月的数据,我们可以结合批处理层和速度层的数据视图来得出,而快至几个小时的数据我们又可以根据速度层的数据视图来获知,怎么样?这个架构是不是十分灵活?
看到这里,你可能会问,我在上面所讲的例子都是来自些科技巨头公司,如果我在开发中面对的数据场景没有这么巨大,又或者说我的公司还在创业起步阶段,我是否可以用到 Lambda 架构呢?
答案是肯定的!我下面将和你一起分享一个在硅谷旧金山创业公司的 App 后台架构。

Smart Parking 案例分析

在硅谷旧金山地区上班生活的小伙伴肯定都知道,找停车位是一大难题。这里地少车多,每次出行,特别是周末,找停车位都要绕个好几十分钟才能找得到。
智能停车 App 就是在这样的背景下诞生的。这个 App 可以根据大规模数据所构建的视图推荐最近的车位给用户。
看到这里,我想先请你结合之前所讲到的广告精准投放案例,思考一下 Lambda 架构是如何应用在这个 App 里的,然后再听我娓娓道来。
好,我们来梳理一下各种可以利用到的大数据。
首先是可以拿到各类停车场的数据。这类数据的实时性虽然不一定高,但是数据的准确性高。那我们能不能只通过这类大数据来推荐停车位呢?
我来给你举个极端的例子。假设在一个区域有三个停车场,停车场 A 现在只剩下 1 个停车位了。
停车场 B 和 C 还有非常多的空位。而在这时候距离停车场比 A 较近的位置有 10 位车主在使用这个 App 寻求推荐停车位。如果只通过车主和停车场的距离和停车场剩余停车位来判断的话,App 很有可能会将这个只剩下一个停车位的停车场 A 同时推荐给这 10 位用户。
结果可想而知,只有一位幸运儿能找到停车位,剩下的 9 位车主需要重新寻找停车位。
如果附近又出现了只有一个停车位的停车场呢?同理,这个 App 又会推荐这个停车场给剩下的 9 位用户。这时又只能有一位幸运儿找到停车位。
如此反复循环,用户体验会非常差,甚至会导致用户放弃这个 App。
那我们有没有办法可以改进推荐的准确度呢?
你可能会想到我们可以利用这些停车场的历史数据,建立一个人工智能的预测模型,在推荐停车位的时候,不单单考虑到附近停车场的剩余停车位和用户与停车场的相邻距离,还能将预测模型应用在推荐里,看看未来的一段时间内这个停车场是否有可能会被停满了。
这时候我们的停车位推荐系统就变成了一个基于分数(Score)来推荐停车位的系统了。
好了,这个时候的系统架构是否已经达到最优了呢?你有想到应用 Lambda 架构吗?
没错,这些停车场的历史数据或者每隔半小时拿到的停车位数据,我们可以把它作为批处理层的数据。
那速度层的数据呢?我们可以将所有用户的 GPS 数据聚集起来,这些需要每秒收集的 GPS 数据刚好又是速度层所擅长的实时流处理数据。从这些用户的实时 GPS 数据中,我们可以再建立一套预测模型来预测附近停车场位置的拥挤程度。
服务层将从批处理层和速度层得到的分数结合后将得到最高分数的停车场推荐给用户。这样利用了历史数据(停车场数据)和实时数据(用户 GPS 数据)能大大提升推荐的准确率。

小结

在了解 Lambda 架构后,我们知道 Lambda 架构具有很好的灵活性和可扩展性。我们可以很方便地将现有的开源平台套用入这个架构中,如下图所示。
当开发者需要迁移平台时,整体的架构不需要改变,只需要将逻辑迁移到新平台中。
例如,可以将 Apache Spark 替换成 Apache Storm。而因为我们有批处理层这一概念,又有了很好的容错性。
假如某天开发者发现逻辑出现了错误,只需要调整算法对永久保存好的数据重新进行处理写入服务层,经过多次迭代后整体的逻辑便可以被纠正过来。
从我的开发经验来看,现在有很多的开发项目可能已经有了比较成熟的架构或者算法了。
但是如果我们平时能多思考一下现有架构的瓶颈,又或者想一想现在的架构能不能改善得更好,有了这样的思考,在学习到这些经典优秀架构之后,说不定真的能让现有的架构变得更好。
也就是说,作为一名优秀的架构师,“现有的架构能不能做得更好?”应该是一个需要经常思考的问题。

思考题

你所做的项目开发能否利用 Lambda 架构呢?在生活中有没有哪些大数据处理场景可以利用 Lambda 架构呢?
欢迎在评论中留言,与我和其他同学一起讨论。
如果你觉得今天有些不一样的收获,也欢迎你把这篇文章分享给你的好友。
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 6

提建议

上一篇
09 | CAP定理:三选二,架构师必须学会的取舍
下一篇
11 | Kappa架构:利用Kafka锻造的屠龙刀
unpreview
 写留言

精选留言(45)

  • :)
    2019-05-08
    我们公司做的实时数仓 就满足Lambda 架构。1.批处理部分。定时拉取业务库的数据,并在hive做批处理计算。 2.速度部分。通过订阅mysql数据库的binlog,实时获取数据库的增删改等的操作,通过kafka和flink,生成相关结果。

    作者回复: 谢谢你的经验分享!

    共 4 条评论
    44
  • JohnT3e
    2019-05-08
    lambda架构是不是可能会导致相似的处理逻辑在batch层和speed层都要开发一遍?

    作者回复: 谢谢你的提问!没错,这也是Lambda架构的一个缺点,开发者必须要把同样的逻辑在两个地方维护,特别是当技术栈不一样的时候会很头疼。

    39
  • 命缘
    2019-05-15
    老师,想请问下服务层具体是怎们兼容批处理层和实时处理层的结果的,有没实际例子

    作者回复: 谢谢你的提问!之前有另外一个同学让我讲述一下广告精准投放的实际例子,我就引用一下那个回答吧。 广告投放预测这种推荐系统一般都会用到Lambda架构。一般能做精准广告投放的公司都会拥有海量用户特征、用户历史浏览记录和网页类型分类这些历史数据的。业界比较流行的做法有在批处理层用Alternating Least Squares (ALS)算法,也就是Collaborative Filtering协同过滤算法,可以得出与用户特性一致其他用户感兴趣的广告类型,也可以得出和用户感兴趣类型的广告相似的广告,而用k-means也可以对客户感兴趣的广告类型进行分类。这里的结果是批处理层的结果。在速度层中根据用户的实时浏览网页类型在之前分好类的广告中寻找一些top K的广告出来。最终服务层可以结合速度层的top K广告和批处理层中分类好的点击率高的相似广告,做出选择投放给用户。

    19
  • leeon
    2019-05-08
    目前是通过Kafka将行为数据收集到hdfs,然后spark批处理t+1计算长期数据,生成固定格式的特征同步到kv上线,同时实时收集服务也从Kafka中消费最新的行为,两层输出特征格式统一,供画像服务使用

    作者回复: 谢谢你的经验分享!

    共 2 条评论
    15
  • 明翼
    2019-05-09
    简单又实用的lambda架构,如果实时和批量不能同时满足那就分开吧,用的时候综合下,让我想到现在开源的数据湖,delta data lake,如果批量和实时矛盾就分开吧,读写分,采用不同行式或列式存储,实时和历史分开,实时数据再定期变成历史,这个架构最大难点是如何合并speed和batch

    作者回复: 谢谢你的经验之谈!

    11
  • ¾
    2019-05-09
    关于为什么叫lamda架构有一个猜想。lamda的希腊字母是λ,这正好表示batch 和 speed两种最后汇聚到一起。不知道猜想对不对,但是感觉通过希腊字母,象形的代表架构模式还是挺有意思的。

    作者回复: 谢谢你的分享!Bingo,我觉得是完全正确的!以前在读技术文章的时候就看到过一种说法是:完整的数据集 = λ (实时数据) * λ (历史数据)。

    共 2 条评论
    8
  • Codelife
    2019-05-08
    原来这就是Lambda架构,其实,我们现在就用的Lambda 架构,kafka+storm+MR+Hbase来实现,现在的问题是: 1.storm是用java开发,MR是用python开发,导致同一逻辑需要两种实现 2.storm窗口期数据一般在5-10分钟,由于我们的数据有时间和空间属性的时序数据,前后关联性比较大,中间可能有噪点数据,所以很容易出现实时和历史分析结果不一致的问题,虽然最终用历史覆盖了实时,保持了最终一致性。
    展开

    作者回复: 谢谢你的经验分享! 是的啊,有时候不知不觉就会发现自己原来就已经在使用了某个特定技术。这让我想起设计模式,早期阶段在代码中自己已经在实现某个设计模式了,但是因为那时候还没有系统地去学习设计模式,没察觉到而已。

    8
  • 越甲非甲
    2019-05-08
    老师您好!lambda架构的思路中,感觉最终决定结果的还是批处理结果。而流处理结果更多的是满足实时性的需求。不同的业务场景下,综合两种处理结果获得对外服务的结果模型,其模型和算法应该都不相同。这种处理结果的合并方面,是否有某些原则范式或者思路呢?谢谢老师!

    作者回复: 您好,谢谢提问! 其实Lambda架构的应用场景最终还是会去服务同一种业务,毕竟流处理结果是对批处理结果延时的一种补偿。即便用到的算法不尽相同,但是合并的时候,最后存储的模型或者是存储数据的Schema都还是要一致的。

    8
  • yiwu
    2019-05-08
    实时报表,实时数仓,实时用户画像标签,实时反欺诈,实时风控,以前很多需要批量计算的数据都可以变成batch+speed或speed替代

    作者回复: 谢谢你的经验之谈!

    8
  • LJK
    2019-05-08
    老师您好,请问lambda架构可以看成一种在线学习的实现方式么?

    作者回复: 您好,谢谢提问!可以的,Lambda架构不仅仅可以应用在在线学习上,有非常多应用场景都可以应用上。

    7
  • Hunter Liu
    2019-05-08
    今天的课让我想到了昨天评审的一个需求。这个需求是通过收集用户的及时数据能够知道用户常走的路线,后续用户在使用产品进行导航时,如果没有开启路线引导,但是却正在行驶在常走的路线上,一样给用户准确预报常走路线的路况,这个其实就可以实用了lambda架构。历史数据实用批处理,实时数据实用流处理也就是速度层,这样可以根据历史数据和用户实时上传的数据进行准确的路况播报了。 当然,包括网约车,外卖订单和老师讲的停车场的应用场景也相近,这节课受益匪浅。
    展开

    作者回复: 谢谢你的留言!能有收获就好。

    5
  • hua168
    2019-05-09
    老师打扰一下: Hadoop MapReduce,Apache Spark,Apache Storm,Apache Flink,Apache Apex ,Apache Beam 如果现在才开始学大数据,除了haddop过时了,其它的Apache Spark,Apache Storm,Apache Flink,Apache Apex 还需要学吗?直接Apache Beam学起?

    作者回复: 谢谢你的提问! 我觉得各种大数据平台层出不穷,要每个都学肯定也学不完的。学习哪一个的话可能还要看具体情况。如果你的公司里已经是在使用某一个框架了,而且技术迁移成本很高,需求又来得很快,那当然是以你们公司已有的框架为主来学了。如果你是新手,因为批流统一是一个大的趋势,我觉得Apache Beam和Apache Flink都不错。现在Google里的大数据处理基本上全部都由Apache Beam来支撑了,所以Apache Beam这个框架的能力是毋庸置疑的。当然我作为Google的其中一员,也会觉得有必要推广自家的产品。而Apache Flink的话,现在整套API的底层思想都采用了Google的Dataflow Model,所以也是一个很好的alternative。

    4
  • 渡码
    2019-05-11
    我觉得anti spam可以用lambda架构,实时数据+历史数据更充分地判定作弊行为

    作者回复: 谢谢你的留言!是的,你说的这个例子是可以将Lambda应用在里面的。

    3
  • coder
    2019-05-09
    最近看到一个技术名词,叫做Reactive Design Patterns,国内的翻译是反应式设计模式,对应的编程方式叫做Reactive Programming,不知道这种设计模式跟专栏中提及的各种架构思想的关系是什么?

    作者回复: 谢谢你的提问!我也是第一次接触这个名词,查了一下这本书,解释是“Reactive Design Patterns is a clearly written guide for building message-driven distributed systems that are resilient, responsive, and elastic.”。像message-driven或者event-driven其实就类似Pub/Sub messaging。虽然我没有读过这本书,但是我感觉里面应该会涉及到专栏中一些架构思想。

    3
  • 挖矿的小戈
    2019-05-08
    lambda架构,批处理层和流处理层(速度层),对于某些相同的业务往往需要开发两套代码,这个很不友好;对于催生的Apache Flink、Apache Beam这种在做流批统一的,感觉会是未来的主流

    作者回复: 谢谢你的留言!哈哈,这个观点我也很赞同!

    3
  • Mr.Mouse
    2019-05-08
    lambda架构提供给服务层的结果是不是 speed层实时结果+batch层上次存储的历史结果 整合在一起的结果?

    作者回复: 谢谢你的提问!是的呢,你的理解是正确的。Batch层因为拥有历史数据,所以Batch层的结果可以不断校对Speed层的误差。

    2
  • lwenbin
    2019-05-08
    以前一个项目用过 Kylin + Storm 结合的方式来统计一个指标, Kylin 对于当天以前的历史数据建立OLAP Cube 可以实现维度和维度内的伸缩查询,Storm 的实时统计可以基于当天数据做统计,整合在一起正好提供了所有时间内的查询。 另外,老师能否在广告投放上再多说一下,如何基于浏览历史和实时的浏览做精准广告投放预测?能否具个实际例子呢? 谢谢!
    展开

    作者回复: 谢谢你的经验分析! 那在这里抛砖引玉说一下精准广告投放预测。这里广告投放预测其实相当于一个推荐系统,一般能做精准广告投放的公司都会拥有海量用户特征、用户历史浏览记录和网页类型分类这些历史数据的。业界比较流行的做法有在批处理层用Alternating Least Squares (ALS)算法,也就是Collaborative Filtering协同过滤算法,可以得出与用户特性一致其他用户感兴趣的广告类型,也可以得出和用户感兴趣类型的广告相似的广告,而用k-means也可以对客户感兴趣的广告类型进行分类。在速度层中可以根据用户浏览的网页类型在之前分好类的广告中寻找一些流行的广告出来,最终投放给用户。当然在实际应用当中,精准广告投放预测肯定会比我所说的复杂得多了,我相信架构里面不可避免地也会运用上Lambda架构。

    2
  • Kaleidoscoper
    2019-05-11
    有一个问题要请教老师,停车场例子这个基于实时GPS做的人工预测模型有没有考虑到自身推荐系统的影响呢,如果10辆车都用了app,给出的推荐都是远处的停车场,那离得近的停车场不就反而可以停了吗,是不是还要考虑自身推荐模型在所有实时数据中的影响因子?

    作者回复: 谢谢你的留言提问!实际应用场景中需要考虑到的corner cases肯定是远比我在专栏中所讲到的要多的。所以你所说的这个case系统肯定会考虑到的。

    1
  • 💞QQ💞
    2019-05-10
    老师:停车位那个案例有个问题请教一下。 对于用户来说,收到的数据是历史的停车位信息和实时的用户GPS数据组合之前的推荐数据,用一个小时前的停车数据推荐,是不是会出现推荐 车位已经被消耗的问题,这样用户体验感觉很差哦。

    作者回复: 谢谢你的留言!肯定会有这种情况出现的,所以在推荐系统里都会想要提高Recall Rate。要完全准确的话只能是靠特定停车场自己做一个app实时告诉大家还有没有空余车位了。

    1
  • 汶恬萝
    2019-05-09
    其实impala mix with hdfs and kudu就是一种较好的lambda实现方案。应用层统一使用sql,底层存储兼容基于hdfs的批量任务(impala,hive,spark等)和kudu的近实时存储。 使用场景在并发要求较高的olap或者吞吐量不大的olap均可。 如果又要求吞吐量高,又要求数据量大的实时场景话(感觉这种场景相当少),可能才会考虑两种不同技术架构分别跑批和处理实时数据

    作者回复: 谢谢你的技术分享,学习了!

    1