35 | Facebook游戏实时流处理Beam Pipeline实战(上)
下载APP
关闭
渠道合作
推荐作者
35 | Facebook游戏实时流处理Beam Pipeline实战(上)
2019-07-15 蔡元楠 来自北京
《大规模数据处理实战》
课程介绍
讲述:巴莫
时长09:18大小12.76M
你好,我是蔡元楠。
今天我要与你分享的主题是“Facebook 游戏实时流处理 Beam Pipeline 实战”。
Facebook 这个社交平台我相信你一定早有耳闻。它除了能够让用户发送消息给好友,分享自己的动态图片和视频之外,还通过自身的 App Center 管理着各式各样的小游戏。许多游戏开发商借助 Facebook 的好友邀请机制让自己的 App 火了一把。
曾经有一段时间,在 Facebook 上有一款名为糖果传奇(Candy Crush Saga)的游戏风靡了整个北美。各个年龄层的玩家都会在空闲的时间拿出手机,过五关斩六将,希望尽快突破更多的关卡,并且获得高分。
当然了,除了消除游戏本身带来的乐趣以外,可以在 Facebook 里和自己的好友进行积分排名比拼也是另外一个能吸引用户的地方。
想要一个类似 Facebook 这样的好友间积分排行榜,你可以有很多种实现方式以及各种优化方法。那么,如果我们要利用 Apache Beam 的话,该怎样实现一个类似的游戏积分排行榜呢?
今天我就来和你一起研究,要如何利用 Apache Beam 的数据流水线来实现一个我们自定义的简单游戏积分排行榜。
为了简化整个游戏积分排行榜案例的说明,我们先来做几个方面的假设:
面向的群体:游戏积分排行榜针对的是全局每位用户以及每一个关卡,我们不需要担心如何在 Beam 的数据流水线中优化每个用户自身的好友积分列表。
更新时间:为了保持用户的粘性,我们设定这个游戏积分排行榜的数据每隔一周就会更新一次。也就是说如果一位用户在 2019 年 7 月 15 日成功通关了一次游戏并且分数是这周内自身的最高分,那么这次的最高分数将一直留在 2019 年 7 月 15 日至 2019 年 7 月 21 日这周的排行榜中。但是到了 2019 年 7 月 22 日后,这个分数将不会再出现,需要用户重新通关这个关卡后分数才会重新出现在新的一周游戏积分排行榜中。
积分排位:游戏积分排行榜需要显示出这个关卡中得分最高的前 100 位用户。
输入数据:每次用户通关后,这个 App 都会将用户自身的 ID,通关游戏的时间(也就是事件时间)还有分数以 CSV 格式上传到服务器中,每个用户的游戏积分数据都可以从 Google Cloud Bigtable 中读取出来。
输出数据:最终这个游戏积分排行榜结果可以从一个文件中获得。也就是说,我们的 Beam 数据流水线需要将最终结果写入文件中。
有了这些假设,我们就一起来由浅入深地看看有哪些执行方案。
正如上一讲中所说,如果可以用简单的方法解决战斗,我们当然要避免将问题复杂化了。一种比较直观的做法就是使用 crontab 定时执行一个 Beam 数据流水线,将每周需要进行计算排名的开始时间点和结束时间点传入数据流水线中,过滤掉所有事件时间不在这个时间范围内的数据。
那么,具体要怎么做呢?
首先,我们先要定义一个类,来保存我们之前假设好用户上传的信息。
Java
这个类十分简单,构造函数需要传入的是用户 ID、游戏通关时的积分还有通关时间。
有了这个类之后,整个数据流水线的逻辑就可以围绕着这个类来处理,步骤大致如下:
从 Google Cloud Bigtable 中读取保存用户通关积分等信息的所有 Bigtable Row 出来,得到 PCollection。
将 PCollection转换成我们定义好的类,成为 PCollection。
根据我们传入的开始边界时间和结束边界时间过滤掉不属于这一周里数据,得到有效时间内的 PCollection。
将 PCollection 转换成 PCollection<KV<String, UserScoreInfo>>,KV 里面的 Key 就用户 ID。
自定义一个 Composite Transform,其中包括三个步骤:利用 Top Transform 将每一个用户的最高分率选出来,得到 PCollection<KV<String, List>>;将 PCollection<KV<String, List>> 转换成为 PCollection<KV<String, UserScoreInfo>>;再次利用 Top Transform 将 PCollection<KV<String, UserScoreInfo>> 中前 100 名高分用户筛选出来。
将结果写入 CSV 格式的文件中,格式为“用户 ID,分数”。
在上面所描述的步骤中,第 5 步出现了一个叫 Composite Transform 的概念。
那么,什么是 Composite Transform 呢?其实 Composite Transform 并不是指一个具体的 Transform,而是指我们可以将多个不同的 Transforms 嵌套进一个类中,使得数据流水线更加模块化。具体做法是继承 PTransform 这个类,并且实现 expand 抽象方法来实现的。
用我们实现过的 WordsCount 来举例,我们可以将整个 WordsCount 数据流水线模块化成一个 Composite Transform,示例如下:
Java
在上面这个例子中,输入的参数是每一行字符串 PCollection,输出结果是每一个单词对应出现的次数 PCollection<KV<String, Long>。在实现 expand 这个抽象方法的时候,里面总共嵌套了两个不同的 Transform,分别是一个 ParDo 用来提取每一行的单词,还有一个 Count Transform 统计单词出现的次数。
所以在第 5 步中,我们也可以自己定义一个 ExtractUserAndScore 的 Composite Transform 来实现上面所描述的多个不同的 Transforms。
好了,为了事先知道游戏积分排行榜中开始的边界时间和结束的边界时间,我们还需要自己实现一个 Options 接口。方法是继承 PipelineOptions 这个接口,具体如下所示:
Java
这样开始的边界时间和结束的边界时间就都可以通过 Pipeline option 的参数传入。
例如,我们想要得到 2019 年 7 月 15 日至 2019 年 7 月 21 日这周的排行榜,那在运行数据流水线的时候,参数就可以按照“–startBoundary=2019-07-15-00-00 --etartBoundary=2019-07-21-00-00”传入了。
整个数据流水线的大致逻辑如下:
Java
其中,ConvertUserScoreInfoFn 这个 Transform 代表着第 2 步转换操作,数据流水线中两个 Filter Transform 分别代表着第 3 和第 4 步。第 5 步“获得最高分的前 100 位用户”是由 ExtractUserAndScore 这个 Composite Transform 来完成的。
你可以看到,不算上各种具体 Transform 的实现,整个数据流水线的逻辑框架大概用 60 行代码就可以表示出来。
虽然这个批处理的方法可以用简单的逻辑得到最后我们想要的结果,不过其实它还存在着不少的不足之处。
因为我们的批处理数据流水线使用 crontab 来定时运行,所以“运行数据流水线的时间间隔”以及“完成数据流水线”这之间的时间之和会给最终结果带来延迟。
比如,我们定义 crontab 每隔 30 分钟来运行一次数据流水线,这个数据流水线大概需要 5 分钟完成,那在这 35 分钟期间用户上传到服务器的分数是无法反应到积分排行榜中的。
那么,有没有能够缩小延时的办法呢?
当然有,答案就是将输入数据作为无边界数据集读取进来,进行实时的数据处理。在这里面我们会运用的到第 23 讲所讲述到的窗口(Window)、触发器(Trigger)和累加模式(Accumulation)的概念。
我将在下一讲中,与你具体分析怎样运用 Beam 的数据流水线实现一个实时输出的游戏积分排行榜。
小结
今天我们一起展开讨论了自己实现一个简易游戏积分排行榜的过程。可以知道的是,我们可以使用 Beam 的数据流水线来完成这一任务。而在 Beam 数据流水线的实现方式中,我们又可以分成批处理的实现方式和即将在下一讲中展开讨论的实时流处理的方式。批处理虽然简单,但是存在着延时性高、无法快速更新积分排行榜的缺点。
思考题
在今天这一讲的最后,我提示了你在实时流处理中需要用到窗口、触发器和累加模式。那我们就先来做个预热,思考一下,在流处理中你会对这三种概念赋予什么值呢?
欢迎你把答案写在留言区,与我和其他同学一起讨论。如果你觉得有所收获,也欢迎把文章分享给你的朋友。
分享给需要的人,Ta购买本课程,你将得18元
生成海报并分享
赞 1
提建议
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
上一篇
34 | Amazon热销榜Beam Pipeline实战
下一篇
36 | Facebook游戏实时流处理Beam Pipeline实战(下)
精选留言(5)
- suncar2019-07-16老师您好,请问一下可不可以将这种案例放一份到github上。我们可以拉到本地进行调试。在这个过程中避免不了出现各种异常,以方便更好的解决和深入了解。谢谢12
- 之渊2020-08-24源码https://gitee.com/oumin12345/daimademojihe/tree/master/cloudx/bigdata/src/main/java/test/beam/facebook 新手先自己试着写出来。再参考。这样才是实战啊,毕竟工作是没有抄的1
- Fiery2020-03-15第一个问题是,为什么pipeline里面没有针对每个关卡的aggregation?难道默认只处理一个关卡吗?那candy crush有好几百的关卡,总不能每一个关卡单独copy一份这样的代码吧?! 第二个问题是,在第5步的Composite Transform中,用Top Transform算出每个用户的Top score,输出难道不应该是PCollection<KV<string, long>>吗(Key是user id,Value是score)?而且既然已经用Top得到了每个用户的最高分,直接针对这个PCollection<KV<string, long>>进行第二次Top Transform不就能得到前100名用户的ID的分数了?为什么还要多一个中间转换产生PCollection<KV<string, UserScoreInfo>>呢?展开
- wang2020-01-08思考题:窗口值也就是事件处理阶段=》startBoundary 和 endBoundary 的值 触发器也就是计算触发的时间=》30min 一个点 累加模式=》丢弃
- bingo2019-09-21老师你好,我有个疑问。这里的用户数据可不可以全部放在Hbase里。 由于好友之间的排名查询涉及的数据量少,所以直接查询Hbase。而全局的总排名要涉及到所有的玩家,数据量大,这个使用流水线处理