极客时间已完结课程限时免费阅读

01 | 为什么MapReduce会被硅谷一线公司淘汰?

01 | 为什么MapReduce会被硅谷一线公司淘汰?-极客时间

01 | 为什么MapReduce会被硅谷一线公司淘汰?

讲述:巴莫

时长11:34大小10.59M

你好,我是蔡元楠。
今天我要与你分享的主题是“为什么 MapReduce 会被硅谷一线公司淘汰”。
我有幸几次与来 Google 参观的同行进行交流,当谈起数据处理技术时,他们总是试图打探 MapReduce 方面的经验。
这一点让我颇感惊讶,因为在硅谷,早已没有人去谈论 MapReduce 了。
今天这一讲,我们就来聊聊为什么 MapReduce 会被硅谷一线公司淘汰。
我们先来沿着时间线看一下超大规模数据处理的重要技术以及它们产生的年代。
我认为可以把超大规模数据处理的技术发展分为三个阶段:石器时代,青铜时代,蒸汽机时代。

石器时代

我用“石器时代”来比喻 MapReduce 诞生之前的时期。
数据的大规模处理问题早已存在。早在 2003 年的时候,Google 就已经面对大于 600 亿的搜索量。
但是数据的大规模处理技术还处在彷徨阶段。当时每个公司或者个人可能都有自己的一套工具处理数据。却没有提炼抽象出一个系统的方法。

青铜时代

2003 年,MapReduce 的诞生标志了超大规模数据处理的第一次革命,而开创这段青铜时代的就是下面这篇论文《MapReduce: Simplified Data Processing on Large Clusters》。
杰夫(Jeff Dean)和桑杰(Sanjay Ghemawat)从纷繁复杂的业务逻辑中,为我们抽象出了 Map 和 Reduce 这样足够通用的编程模型。后面的 Hadoop 仅仅是对于 GFS、BigTable、MapReduce 的依葫芦画瓢,我这里不再赘述。

蒸汽机时代

到了 2014 年左右,Google 内部已经几乎没人写新的 MapReduce 了。
2016 年开始,Google 在新员工的培训中把 MapReduce 替换成了内部称为 FlumeJava(不要和 Apache Flume 混淆,是两个技术)的数据处理技术。
这标志着青铜时代的终结,同时也标志着蒸汽机时代的开始。
我跳过“铁器时代”之类的描述,是因为只有工业革命的概念才能解释从 MapReduce 进化到 FlumeJava 的划时代意义。
Google 内部的 FlumeJava 和它后来的开源版本 Apache Beam 所引进的统一的编程模式,将在后面的章节中为你深入解析。
现在你可能有一个疑问 :为什么 MapReduce 会被取代?今天我将重点为你解答。

高昂的维护成本

使用 MapReduce,你需要严格地遵循分步的 Map 和 Reduce 步骤。当你构造更为复杂的处理架构时,往往需要协调多个 Map 和多个 Reduce 任务。
然而,每一步的 MapReduce 都有可能出错。
为了这些异常处理,很多人开始设计自己的协调系统(orchestration)。例如,做一个状态机(state machine)协调多个 MapReduce,这大大增加了整个系统的复杂度。
如果你搜 “MapReduce orchestration” 这样的关键词,就会发现有很多书,整整一本都在写怎样协调 MapReduce。
你可能会惊讶于 MapReduce 的复杂度。我也经常会看到一些把 MapReduce 说得过度简单的误导性文章。
例如,“把海量的××数据通过 MapReduce 导入大数据系统学习,就能产生××人工智能”。似乎写文的“专家”动动嘴就能点石成金。
而现实的 MapReduce 系统的复杂度是超过了“伪专家”的认知范围的。下面我来举个例子,告诉你 MapReduce 有多复杂。
想象一下这个情景,你的公司要预测美团的股价,其中一个重要特征是活跃在街头的美团外卖电动车数量,而你负责处理所有美团外卖电动车的图片
在真实的商用环境下,为了解决这个问题,你可能至少需要 10 个 MapReduce 任务:
首先,我们需要搜集每日的外卖电动车图片。
数据的搜集往往不全部是公司独自完成,许多公司会选择部分外包或者众包。所以在数据搜集(Data collection)部分,你至少需要 4 个 MapReduce 任务:
数据导入(data ingestion):用来把散落的照片(比如众包公司上传到网盘的照片)下载到你的存储系统。
数据统一化(data normalization):用来把不同外包公司提供过来的各式各样的照片进行格式统一。
数据压缩(compression):你需要在质量可接受的范围内保持最小的存储资源消耗 。
数据备份(backup):大规模的数据处理系统我们都需要一定的数据冗余来降低风险。
仅仅是做完数据搜集这一步,离真正的业务应用还差得远。
真实的世界是如此不完美,我们需要一部分数据质量控制(quality control)流程,比如:
数据时间有效性验证 (date validation):检测上传的图片是否是你想要的日期的。
照片对焦检测(focus detection):你需要筛选掉那些因对焦不准而无法使用的照片。
最后才到你负责的重头戏——找到这些图片里的外卖电动车。而这一步因为人工的介入是最难控制时间的。你需要做 4 步:
数据标注问题上传(question uploading):上传你的标注工具,让你的标注者开始工作。
标注结果下载(answer downloading):抓取标注完的数据。
标注异议整合(adjudication):标注异议经常发生,比如一个标注者认为是美团外卖电动车,另一个标注者认为是京东快递电动车。
标注结果结构化(structuralization): 要让标注结果可用,你需要把可能非结构化的标注结果转化成你的存储系统接受的结构。
这里我不再深入每个 MapReduce 任务的技术细节,因为本章的重点仅仅是理解 MapReduce 的复杂度。
通过这个案例,我想要阐述的观点是,因为真实的商业 MapReduce 场景极端复杂,像上面这样 10 个子任务的 MapReduce 系统在硅谷一线公司司空见惯
在应用过程中,每一个 MapReduce 任务都有可能出错,都需要重试和异常处理的机制。所以,协调这些子 MapReduce 的任务往往需要和业务逻辑紧密耦合的状态机。
这样过于复杂的维护让系统开发者苦不堪言。

时间性能“达不到”用户的期待

除了高昂的维护成本,MapReduce 的时间性能也是个棘手的问题。
MapReduce 是一套如此精巧复杂的系统,如果使用得当,它是青龙偃月刀,如果使用不当,它就是一堆废铁。不幸的是并不是每个人都是关羽。
在实际的工作中,不是每个人都对 MapReduce 细微的配置细节了如指掌。
在现实中,业务往往需求一个刚毕业的新手在 3 个月内上线一套数据处理系统,而他很可能从来没有用过 MapReduce。这种情况下开发的系统是很难发挥好 MapReduce 的性能的。
你一定想问,MapReduce 的性能优化配置究竟复杂在哪里呢?
我想 Google500 多页的 MapReduce 性能优化手册足够说明它的复杂度了。这里我举例讲讲 MapReduce 的分片(sharding)难题,希望能窥斑见豹,引发大家的思考。
Google 曾经在 2007 年到 2012 年间做过一个对于 1PB 数据的大规模排序实验,来测试 MapReduce 的性能。
从 2007 年的排序时间 12 小时,到 2012 年的排序时间缩短至 0.5 小时。即使是 Google,也花了 5 年的时间才不断优化了一个 MapReduce 流程的效率。
2011 年,他们在 Google Research 的博客上公布了初步的成果。
其中有一个重要的发现,就是他们在 MapReduce 的性能配置上花了非常多的时间。包括了缓冲大小 (buffer size),分片多少(number of shards),预抓取策略(prefetch),缓存大小(cache size)等等。
所谓的分片,是指把大规模的的数据分配给不同的机器 / 工人,流程如下图所示。
选择一个好的分片函数(sharding function)为何格外重要?让我们来看一个例子。
假如你在处理 Facebook 的所有用户数据,你选择了按照用户的年龄作为分片函数(sharding function)。我们来看看这时候会发生什么。
因为用户的年龄分布不均衡(假如在 20~30 这个年龄段的 Facebook 用户最多),导致我们在下图中 worker C 上分配到的任务远大于别的机器上的任务量。
这时候就会发生掉队者问题(stragglers)。别的机器都完成了 Reduce 阶段,只有 worker C 还在工作。
当然它也有改进方法。掉队者问题可以通过 MapReduce 的性能剖析(profiling)发现。 如下图所示,箭头处就是掉队的机器。
图片引用:Chen, Qi, Cheng Liu, and Zhen Xiao. “Improving MapReduce performance using smart speculative execution strategy.” IEEE Transactions on Computers 63.4 (2014): 954-967.
回到刚刚的 Google 大规模排序实验。
因为 MapReduce 的分片配置异常复杂,在 2008 年以后,Google 改进了 MapReduce 的分片功能,引进了动态分片技术 (dynamic sharding),大大简化了使用者对于分片的手工调整。
在这之后,包括动态分片技术在内的各种崭新思想被逐渐引进,奠定了下一代大规模数据处理技术的雏型。

小结

这一讲中,我们分析了两个 MapReduce 之所以被硅谷一线公司淘汰的“致命伤”:高昂的维护成本和达不到用户期待的时间性能。
文中也提到了下一代数据处理技术雏型。这就是 2008 年左右在 Google 西雅图研发中心诞生的 FlumeJava,它一举解决了上面 MapReduce 的短板。
另外,它还带来了一些别的优点:更好的可测试性;更好的可监控性;从 1 条数据到 1 亿条数据无缝扩展,不需要修改一行代码,等等。
在后面的章节中,我们将具体展开这几点,通过深入解析 Apache Beam(FlumeJava 的开源版本),揭开 MapReduce 继任者的神秘面纱。

思考题

如果你在 Facebook 负责处理例子中的用户数据,你会选择什么分片函数,来保证均匀分布的数据分片?
欢迎你把答案写在留言区,与我和其他同学一起探讨。
如果你觉得有所收获,也欢迎把文章分享给你的朋友。
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 14

提建议

上一篇
开篇词 | 从这里开始,带你走上硅谷一线系统架构师之路
下一篇
02 | MapReduce后谁主沉浮:怎样设计下一代数据处理技术?
unpreview
 写留言

精选留言(120)

  • mgxian
    置顶
    2019-04-17
    把年龄倒过来比如 28 岁 变成 82 来分片

    作者回复: 谢谢你的答案!这个答案很新颖啊,我觉得光从年龄这个问题上来讲,你的思路是可以把20多岁变成12、22、32、42等等。希望你能在以后遇到问题时也能保持这样创新思维,也希望你继续留言,我们一起学习进步!

    共 2 条评论
    244
  • Codelife
    置顶
    2019-04-17
    我们最早采用的是哈希算法,后来发现增删节点泰麻烦,改为带虚拟节点的一致性哈希环开处理,稍微复杂点,但是性能还好

    作者回复: 谢谢你的答案!应该是一个很有经验的高级工程师了吧。使用Consistent hashing是可以很好地解决平均分配和当机器增减后重新hashing的问题。

    67
  • 王伟
    置顶
    2019-04-17
    你好!我工作中遇到这样的场景:会员在我们平台注册,信息会保存在对应商家的商家库中,现在需要将商家库中的信息实时的同步到另一台服务的会员库中,商家库是按照商家编号分库,而且商家库和会员库没在同一台服务器部署。想请教一下,像这种我们如何做到实时同步?

    作者回复: 你好王伟!首先感谢你的提问! 我不确定你所说的实时同步是想表达Eventual Consistency还是Strong Consistency,那我就争对两个都说说自己的愚见吧。 因为会员信息都会保存在商家库中,所以这里我假设商家库的信息可以作为source of truth。 如果你指的是Eventual Consistency的话,可以在会员更新商家库的同时将会员信息利用Pub/Sub发送给会员库去更新。考虑到Pub/Sub中间有可能会丢包,我们可以再建立一个定时任务每隔一段时间将全部商家库中的信息扫描一遍再更新到会员库中。当然具体的实现可以再作优化,因为商家库是按商家编号分库的,我们可以记录下哪些商家编号的表最近有更新我们就只扫描那些表,而不用扫描全局的表。 如果你指的是Strong Consistency的话,我们可以在中间再创建一个State Machine,记录是否两个库都同时更新了。在读取会员信息的时候,我们需要查询这个State Machine,只有当两个库同时都更新的时候才将会员信息返回。根据第九讲的CAP理论,这样的做法其实会牺牲掉Availability,也就是你的服务可用性。 当然具体的需求你会比我更了解,所以相信你能够从中做出设计上的取舍。也欢迎你继续留言提问,我们可以一起讨论学习进步!

    35
  • SpanningWings
    置顶
    2019-04-18
    还想到一个问题有关consistent hashing的。map reduce下层的GFS也没有采用consistent hashing来控制分片,这又是为什么?老师有空回答下吗?

    作者回复: 再次看到了你的提问,感谢! 以下纯属个人愚见。 无论是MapReduce的partitioning,还是GFS的chunkservers,它们的设计思想都是将文件分割成固定大小的chunks来维护,而每一个chunk都会有一个deterministic的64位唯一标识符。这种设计思想是和consistent hashing不一样的,可以称为是Central Coordinator。 而历史原因也是存在的,GFS和MapReduce是分别在2003年和2004年公开论文的,而Distributed Hash Table这种思想,也就是Consistent hashing,是在2007年Amazon发表了Dynamo: Amazon's Highly Available Key-value Store这篇论文后被大家所广泛认同的。 最后我想说的是,设计一个通用架构给所有开发者使用和根据自身应用场景所设计出来的架构,它们的侧重点会有所不同。如果只是自身业务需要并且不需要太考虑时间复杂度,那当然可以自己去实现consistent hashing,毕竟hashing后取模和consistent hashing时每次都要计算环节点的时间复杂度肯定是不一样的。 希望这对你有所帮助,如果有所收获的话也欢迎你分享给朋友,谢谢!

    16
  • maye
    置顶
    2019-04-17
    个人愚见:虽然MapReduce引擎存在性能和维护成本上的问题,但是由于Hive的封装使其适用性很广泛,学习成本很低,但是实际使用过程中和Spark等相比性能差太多了。不过对于计算引擎模型的理解方面,MapReduce还是一个很经典的入门模型,对于未来迁移到其他计算引擎也是有很大帮助的。 还有一个个人问题:不知道蔡老师对于流计算和批处理的关系是怎么看待的?流计算有可能完全取代批处理么? 关于思考题:问题的核心店在于Reducer Key是否倾斜,个人认为可以按照update_time之类的时间字段进行分片处理。
    展开

    作者回复: 你好Maye,谢谢你的留言与提问! 第一问我也说说我的愚见吧。关于流处理和批处理的关系我更倾向于批处理可以算是流处理的一个子集吧。我们可以这么抽象地看,流计算所处理的都是无限数据集,而我们从中按照时间窗口抽取一小段出来的话,这一小段有边界的数据集其实也就是批处理所处理的数据集了。所以说批处理算是流处理的一个子集吧。但是现在流计算中两大问题:1)Exactly once delivery 2)message order,还没有非常完美的解决方案,但是我相信可以攻克的。所以未来趋势还是趋于统一。现在Google所推出的Apache Beam项目其实也是想解决这样一个问题,统一批处理和流处理的编程接口。更详细的内容我会在后面的章节展开讲解。 思考题你也看到了问题的本质,就是能找到趋于平均分配的分片处理方式。 欢迎你继续留言提问,一起交流学习进步!

    14
  • alexgreenbar
    置顶
    2019-04-17
    赞一个,几乎每问必答,无论是否小白问题,很务实,具备高手风范!

    作者回复: 😄 很多问题确实很有思考价值,我也学到了很多之前没考虑到的。

    13
  • cricket1981
    置顶
    2019-04-17
    如果不需要按某些字段做聚合分析,只是普通数据处理的话,直接用Round Robin分片即可。我想了解什么是“动态分片”技术?即使不用MR,其他大数据处理框架也需要用到“分片”,毕竟大数据的处理是“分而治之”,如何分才能分得好是关键。日常工作中经常遇到数据倾斜问题,也是由于分片不合理导致的。如果对于待处理的数据你了解到好办,知道用哪些字段作分片最合适,但如果遇到不熟悉的数据你又该如何分片?而不是等到出现数据倾斜问题的时候才发现,进行分片修改再重跑呢?谢谢老师指教!
    展开

    作者回复: Round robin确实能保证均匀但是有个很大的问题是没有容错。因为在分布式处理的时候数据处理顺序是“随机”的,可能是shard 1/2/3也可能是 shard 1/3/2,如果发现shard 2所有任务挂了(机器坏了)需要重试,如果有确定的sharding function很容易找出shard 2的任务,round robin的话就无法还原shard 2任务了。当然你可以说我再搞个数据库把round robin结果保存,但那样就更复杂了。

    9
  • 明翼
    置顶
    2019-04-17
    一般用户信息表都存在一个id,有的是递增的数字id,有的是类似uuid随机字符串,对于递增的直接对机器数量取余,如果是字符串通过比较均衡的hash函数操作后再对机器数量取余即可。

    作者回复: 谢谢你的答案!这个答案不错。不过取余运算在机器有增减的时候会遇到麻烦,所有的用户必须重新取余运算一遍。Consistent Hashing可以很好地解决这个问题。欢迎你继续留言,我们一起学习进步!

    7
  • 木卫六
    2019-04-17
    年龄是值域在0-120(假定)之间的数值,难以分片的原因正是因为年龄的十位数权重过大,所以我觉得一切有效降低十位数权重的哈希算法应该都是可行的。 1.对于年龄ABC,比如倒置CBA,或(C*大质数1+B*较小质数+C)%numPartitions,这类方法应该可以明显改善分布不均,但是对某些单一热点无解,比如25岁用户特别多; 2.随机分区,可做到很好均衡,对combine,io等优化不友好 3. 先采样+动态合并和拆分,实现过于复杂,效果可能不稳定 这是我的想法,请老师指正。
    展开

    作者回复: 谢谢你的答案!你在每个答案里都分别给出这个答案所存在的不足,这一点我是非常赞赏的。在开发设计中没有哪个答案是特别完美的,我们能做的是分析哪一个才是最符合自身应用需求,进而改善。 1. 是的,倒置年龄的digit可以改善均分的问题,但是也存在hot spot的问题。 2. 我在其它的留言也回复过,随机分区的话还有一个缺点是当分区任务失败需要重新分区的时候,分区结果不再是deterministic的。 3. 总结得不错。 欢迎你继续留言,我们一起学习进步!

    14
  • TKbook
    2019-04-17
    在评论在看到Consistent hashing,特地去搜索看了下,终于明白了。评论干货很多。。

    作者回复: 哈哈有收获就好

    10
  • JensonYao
    2019-04-17
    MapReduce是从纷繁复杂的业务逻辑中,为我们抽象出了 Map 和 Reduce这样足够通用的编程模型。 缺点: 1、复杂度高 当你构造更为复杂的处理架构时,往往进行任务划分,而且每一步都可能出错。而且往往比认为的复杂的多。 2、时间性能达不到用户要求 Google500 多页的 MapReduce 性能优化手册 1PB的排序从12小时优化到0.5小时花了5年 思考题:如果你在 Facebook 负责处理例子中的用户数据,你会选择什么分片函数,来保证均匀分布的数据分片? 由于没有过相关的经验,从网上查了下资料,常见的数据分片有1、hash 2、consistent hash without virtual node 3、consistent hash with virtual node 4、range based 文章中使用的方法就是range based方法,缺点在于区间大小固定,但是数据量不确定,所以会导致不均匀。 其他三种方法都可以保证均匀分布的数据分片,但是节点增删导致的数据迁移成本不同。 1、hash函数节点增删时,可能需要调整散列函数函数,导致大量的数据迁移   consistent hash是将数据按照特征值映射到一个首尾相接的hash环上,同时也将节点映射到这个环上。对于数据,从数据在环上的位置开始,顺时针找到的第一个节点即为数据的存储节点 2、consistent hash without virtual node 增删的时候只会影响到hash环上响应的节点,不会发生大规模的数据迁移。但是,在增加节点的时候,只能分摊一个已存在节点的压力;同样,在其中一个节点挂掉的时候,该节点的压力也会被全部转移到下一个节点 3、consistent hash with virtual node 在实际工程中,一般会引入虚拟节点(virtual node)的概念。即不是将物理节点映射在hash换上,而是将虚拟节点映射到hash环上。虚拟节点的数目远大于物理节点,因此一个物理节点需要负责多个虚拟节点的真实存储。操作数据的时候,先通过hash环找到对应的虚拟节点,再通过虚拟节点与物理节点的映射关系找到对应的物理节点。引入虚拟节点后的一致性hash需要维护的元数据也会增加:第一,虚拟节点在hash环上的问题,且虚拟节点的数目又比较多;第二,虚拟节点与物理节点的映射关系。但带来的好处是明显的,当一个物理节点失效是,hash环上多个虚拟节点失效,对应的压力也就会发散到多个其余的虚拟节点,事实上也就是多个其余的物理节点。在增加物理节点的时候同样如此。 引用blog:http://www.cnblogs.com/xybaby/p/7076731.html 所以这样看具体采用何种方式要结合其他的因素(显示场景,成本?),如何抉择我也不是很清楚。
    展开

    作者回复: 线下做了研究了很好啊。这三个看起来都可以吧。一般场景我觉得可以选择复杂度低的第一种,后面的对于普通场景可能都有点overkill。

    8
  • 牛冠群
    2019-04-17
    您好,学习周期有点长,能不能加快些进度。感谢!

    作者回复: 看到“30天速成”字样的资料可以直接扔掉

    6
  • monkeyking
    2019-04-17
    按照user_id哈希或者给user_id加一个随机数前缀

    作者回复: 是对的思路!随机前缀这个我在另一个回复上也提到了,“真”随机会影响错误重试,因为没法还原当时的随机数,比如分片2的任务全部失败,找不到哪些是分片2了。

    共 2 条评论
    6
  • 张德
    2019-04-17
    给作者一百五十个赞👍
    5
  • 孙稚昊
    2019-04-17
    我们公司现在还在使用hadoop streaming 的MapReduce,默认mapper 结果是按key sort 过得,在reducer 中借此实现join和group by的复杂操作,经常为了Join 一个table就要多写四个job

    作者回复: 是的,我觉得你总结的很好!

    5
  • aof
    2019-04-17
    MR的劣势刚好对应了Spark的优势 1. 通过DAG RDD进行数据链式处理,最终只有一个job,大大降低了大数量MR的维护成本 2. 优先基于内存计算的Spark相对于基于磁盘计算的MR也大幅度提高了计算性能,缩短计算时间 个人觉得,这两点可以作为MR和Spark的主要区别。
    展开

    作者回复: 谢谢你的留言!我认同你的观点,MR确实在每一步都需要经过磁盘的数据读取和结果的写入,速度上也就比不上Spark了。希望后面能继续看见你留言,一起学习进步!

    5
  • 王昊
    2019-04-24
    老师您好,我现在正在读研究生(专业计算机技术),喜欢数据科学,编写过简单的MR,谢谢您高屋建瓴地述说其历史发展,想请教您比如很多学生应该怎么学习,如何成长为优秀的工程师,是应该从头从MR学起还是直接学高级的技术?

    作者回复: 谢谢你的提问!任何“高级”的技术都离不开底层的支持,而万变不离其宗,底层思想其实在各个数据处理平台中都是相通的。我觉得如果是刚开始学习的话是需要把基本的思想先学明白,例如可以读一读MapReduce的论文:"MapReduce: Simplified Data Processing on Large Clusters"。而后自己的动手实践当然也是少不了的。如果还有时间的话,可以听一听工业界上大公司的技术演讲,看看在实际应用场景中它们是如何搭建自己的技术栈的。希望这些对你有所帮助。

    4
  • 孙稚昊
    2019-04-17
    现在写MapReduce job 开几百个worker经常有1,2个卡着不结束,基本都要在下班前赶着启动耗时长的任务。 我们分片用户是用的 country+username 的 hash,还是比较均匀的

    作者回复: 看来你很有经验!确实是很经常出现的问题

    4
  • mjl
    2019-04-17
    个人理解,对于已知数据分布情况的数据,我们大多数情况下能找到合适的一个分区策略对数据进行分片。但实际上这对于数据开发者来说,就需要知道整体数据的一个基本情况。而对于数据倾斜,基本分为分区策略不当导致的倾斜以及单热点key的倾斜,对于后者,无论用户设置什么分区策略,都无法对数据进行分割。 对于数据倾斜问题的话,spark 3.0版本计划合入的AE功能给出了一定的方案。对于倾斜的partition,在shuffleWrite阶段就可以统计每个map输出的各个分区信息,然后根据这些信息来调整下一个stage的并发度。进一步的话,对于两表join,一张表有存在热点key的话,可以广播另外一张表的该partition,最终与其他分区的join结果做union。基于这个思路的话,engine其实是能很灵活的处理数据倾斜类问题,而不用用户去花精力研究选择。
    展开

    作者回复: 这个思路看起来是做了很多课后研究了!希望后面也能继续参与讨论!

    4
  • 旭东(Frank)
    2019-04-17
    区分热点数据(占用)大的数据,以及关联性大的数据。应该有个数据抽样分析,再做具体分片策略

    作者回复: 这个点不错,可以先分析一下数据分布

    4