极客时间已完结课程限时免费阅读

15 | MySQL存储海量数据的最后一招:分库分表

15 | MySQL存储海量数据的最后一招:分库分表-极客时间

15 | MySQL存储海量数据的最后一招:分库分表

讲述:李玥

时长16:19大小11.21M

你好,我是李玥。
从这节课开始,我们课程将进入最后一部分“海量数据篇”,这节课也是我们最后一节主要讲 MySQL 的课程。解决海量数据的问题,必须要用到分布式的存储集群,因为 MySQL 本质上是一个单机数据库,所以很多场景下不是太适合存 TB 级别以上的数据。
但是,绝大部分的电商大厂,它的在线交易这部分的业务,比如说,订单、支付相关的系统,还是舍弃不了 MySQL,原因是,只有 MySQL 这类关系型数据库,才能提供金融级的事务保证。我们之前也讲过分布式事务,那些新的分布式数据库提供的所谓的分布式事务,多少都有点儿残血,目前还达不到这些交易类系统对数据一致性的要求。
那既然 MySQL 支持不了这么大的数据量,这么高的并发,还必须要用它,怎么解决这个问题呢?还是按照我上节课跟你说的思想,分片,也就是拆分数据。1TB 的数据,一个库撑不住,我把它拆成 100 个库,每个库就只有 10GB 的数据了,这不就可以了么?这种拆分就是所谓的 MySQL 分库分表。
不过,思路是这样没错,分库分表实践起来是非常不容易的,有很多问题需要去思考和解决。

如何规划分库分表?

还是拿咱们的“老熟人”订单表来举例子。首先需要思考的问题是,分库还是分表?分库呢,就是把数据拆分到不同的 MySQL 库中去,分表就是把数据拆分到同一个库的多张表里面。
在考虑到底是分库还是分表之前,我们需要先明确一个原则,那就是能不拆就不拆,能少拆不多拆。原因也很简单,你把数据拆分得越散,开发和维护起来就越麻烦,系统出问题的概率就越大。
基于这个原则我们想一下,什么情况下适合分表,什么情况下不得不分库?
那我们分库分表的目的是为了解决两个问题:
第一,是数据量太大查询慢的问题。这里面我们讲的“查询”其实主要是事务中的查询和更新操作,因为只读的查询可以通过缓存和主从分离来解决,这个我们在之前的“MySQL 如何应对高并发”的两节课中都讲过。那我们上节课也讲到过,解决查询慢,只要减少每次查询的数据总量就可以了,也就是说,分表就可以解决问题
第二,是为了应对高并发的问题。应对高并发的思想我们之前也说过,一个数据库实例撑不住,就把并发请求分散到多个实例中去,所以,解决高并发的问题是需要分库的
简单地说,数据量大,就分表;并发高,就分库
一般情况下,我们的方案都需要同时做分库分表,这时候分多少个库,多少张表,分别用预估的并发量和数据量来计算就可以了。
另外,我个人不建议你在方案中考虑二次扩容的问题,也就是考虑未来的数据量,把这次分库分表设计的容量都填满了之后,数据如何再次分裂的问题。
现在技术和业务变化这么快,等真正到了那个时候,业务早就变了,可能新的技术也出来了,你之前设计的二次扩容方案大概率是用不上的,所以没必要为了这个而增加方案的复杂程度。还是那句话,越简单的设计可靠性越高

如何选择 Sharding Key?

分库分表还有一个重要的问题是,选择一个合适的列或者说是属性,作为分表的依据,这个属性一般称为 Sharding Key。像我们上节课讲到的归档历史订单的方法,它的 Sharding Key 就是订单完成时间。每次查询的时候,查询条件中必须带上这个时间,我们的程序就知道,三个月以前的数据查订单历史表,三个月内的数据查订单表,这就是一个简单的按照时间范围来分片的算法。
选择合适 Sharding Key 和分片算法非常重要,直接影响了分库分表的效果。我们首先来说如何选择 Sharding Key 的问题。
选择这个 Sharding Key 最重要的参考因素是,我们的业务是如何访问数据的
比如我们把订单 ID 作为 Sharding Key 来拆分订单表,那拆分之后,如果我们按照订单 ID 来查订单,就需要先根据订单 ID 和分片算法计算出,我要查的这个订单它在哪个分片上,也就是哪个库哪张表中,然后再去那个分片执行查询就可以了。
但是,当我打开“我的订单”这个页面的时候,它的查询条件是用户 ID,这里没有订单 ID,那就没法知道我们要查的订单在哪个分片上,就没法查了。当然你要强行查的话,那就只能把所有分片都查一遍,再合并查询结果,这个就很麻烦,而且性能很差,还不能分页。
那要是把用户 ID 作为 Sharding Key 呢?也会面临同样的问题,使用订单 ID 作为查询条件来查订单的时候,就没办法找到订单在哪个分片了。这个问题的解决办法是,在生成订单 ID 的时候,把用户 ID 的后几位作为订单 ID 的一部分,比如说,可以规定,18 位订单号中,第 10-14 位是用户 ID 的后四位,这样按订单 ID 查询的时候,就可以根据订单 ID 中的用户 ID 找到分片。
那我们系统对订单的查询方式,肯定不只是按订单 ID 或者按用户 ID 这两种啊。比如说,商家希望看到的是自己店铺的订单,还有各种和订单相关的报表。对于这些查询需求,我们一旦对订单做了分库分表,就没法解决了。那怎么办呢?
一般的做法是,把订单数据同步到其他的存储系统中去,在其他的存储系统里面解决问题。比如说,我们可以再构建一个以店铺 ID 作为 Sharding Key 的只读订单库,专门供商家来使用。或者,把订单数据同步到 HDFS 中,然后用一些大数据技术来生成订单相关的报表。
所以你看,一旦做了分库分表,就会极大地限制数据库的查询能力,之前很简单的查询,分库分表之后,可能就没法实现了。所以我们在之前的课程中,先讲了各种各样的方法,来缓解数据多、并发高的问题,而一直没讲分库分表。分库分表一定是,数据量和并发大到所有招数都不好使了,我们才拿出来的最后一招。

如何选择分片算法?

在上节课我给你留的思考题中,我们提到过,能不能用订单完成时间作为 Sharding Key 呢?比如说,我分 12 个分片,每个月一个分片,这样对查询的兼容要好很多,毕竟查询条件中带上时间范围,让查询只落到某一个分片上,还是比较容易的,我在查询界面上强制用户必须指定时间范围就行了。
这种做法有个很大的问题,比如现在是 3 月份,那基本上所有的查询都集中在 3 月份这个分片上,其他 11 个分片都闲着,这样不仅浪费资源,很可能你 3 月那个分片根本抗不住几乎全部的并发请求。这个问题就是“热点问题”。
也就是说,我们希望并发请求和数据能均匀地分布到每一个分片上,尽量避免出现热点。这是选择分片算法时需要考虑的一个重要的因素。一般常用的分片算法就那么几种,刚刚讲到的按照时间范围分片的方法是其中的一种。
基于范围来分片容易产生热点问题,不适合作为订单的分片方法,但是这种分片方法的优点也很突出,那就是对查询非常友好,基本上只要加上一个时间范围的查询条件,原来该怎么查,分片之后还可以怎么查。范围分片特别适合那种数据量非常大,但并发访问量不大的 ToB 系统。比如说,电信运营商的监控系统,它可能要采集所有人手机的信号质量,然后做一些分析,这个数据量非常大,但是这个系统的使用者是运营商的工作人员,并发量很少。这种情况下就很适合范围分片。
一般来说,订单表都采用更均匀的哈希分片算法。比如说,我们要分 24 个分片,选定了 Sharding Key 是用户 ID,那我们决定某个用户的订单应该落到那个分片上的算法是,拿用户 ID 除以 24,得到的余数就是分片号。这是最简单的取模算法,一般就可以满足大部分要求了。当然也有一些更复杂的哈希算法,像一致性哈希之类的,特殊情况下也可以使用。
需要注意的一点是,哈希分片算法能够分得足够均匀的前提条件是,用户 ID 后几位数字必须是均匀分布的。比如说,你在生成用户 ID 的时候,自定义了一个用户 ID 的规则,最后一位 0 是男性,1 是女性,这样的用户 ID 哈希出来可能就没那么均匀,可能会出现热点。
还有一种分片的方法:查表法。查表法其实就是没有分片算法,决定某个 Sharding Key 落在哪个分片上,全靠人为来分配,分配的结果记录在一张表里面。每次执行查询的时候,先去表里查一下要找的数据在哪个分片中。
查表法的好处就是灵活,怎么分都可以,你用上面两种分片算法都没法分均匀的情况下,就可以用查表法,人为地来把数据分均匀了。查表法还有一个特好的地方是,它的分片是可以随时改变的。比如我发现某个分片已经是热点了,那我可以把这个分片再拆成几个分片,或者把这个分片的数据移到其他分片中去,然后修改一下分片映射表,就可以在线完成数据拆分了。
但你需要注意的是,分片映射表本身的数据不能太多,否则这个表反而成为热点和性能瓶颈了。查表法相对其他两种分片算法来说,缺点是需要二次查询,实现起来更复杂,性能上也稍微慢一些。但是,分片映射表可以通过缓存来加速查询,实际性能并不会慢很多。

小结

对 MySQL 这样的单机数据库来说,分库分表是应对海量数据和高并发的最后一招,分库分表之后,将会对数据查询有非常大的限制。
分多少个库需要用并发量来预估,分多少表需要用数据量来预估。选择 Sharding Key 的时候,一定要能兼容业务最常用的查询条件,让查询尽量落在一个分片中,分片之后无法兼容的查询,可以把数据同步到其他存储中去,来解决这个问题。
我们常用三种分片算法,范围分片容易产生热点问题,但对查询更友好,适合并发量不大的场景;哈希分片比较容易把数据和查询均匀地分布到所有分片中;查表法更灵活,但性能稍差。
对于订单表进行分库分表,一般按照用户 ID 作为 Sharding Key,采用哈希分片算法来均匀分布用户订单数据。为了能支持按订单号查询的需求,需要把用户 ID 的后几位放到订单号中去。
最后还需要强调一下,我们这节课讲的这些分片相关的知识,不仅仅适用于 MySQL 的分库分表,你在使用其他分布式数据库的时候,一样会遇到如何分片、如何选择 Sharding Key 和分片算法的问题,它们的原理都是一样的,所以我们讲的这些方法也都是通用的。

思考题

课后请你想一下,把订单表拆分之后,那些和订单有外键关联的表,该怎么处理?欢迎你在留言区与我讨论。
感谢你的阅读,如果你觉得今天的内容对你有帮助,也欢迎把它分享给你的朋友。
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 21

提建议

上一篇
14 | 订单数据越来越多,数据库越来越慢该怎么办?
下一篇
16 | 用Redis构建缓存集群的最佳实践有哪些?
unpreview
 写留言

精选留言(48)

  • 李玥
    置顶
    2020-04-01
    Hi,我是李玥。 这里回顾一下上节课的思考题: 在数据持续增长的过程中,今天介绍的这种“归档历史订单”的数据拆分方法,和直接进行分库分表相比,比如说按照订单创建时间,自动拆分成每个月一张表,两种方法各有什么优点和缺点?欢迎你在留言区与我讨论。 这个问题我在本节课中也提到了,简单的总结一下。按月自动拆分订单的好处是,不需要做数据搬运,相对实现比较简单,数据分得更碎,缺点是跨月查询比较麻烦,但好处是容量也更大(因为分片更多)。归档历史订单的方法,实现起来更复杂,容量要小一些,但是对查询更加友好。
    展开
    23
  • 每天晒白牙
    2020-04-01
    分库分表的原则 能不拆就不拆,能少拆就少拆 分库分表的目的 1.数据量大查询慢的问题 解决查询慢就是减少每次查询的数据量,即分表可以解决该问题 2.应对高并发的问题 一个数据库实例撑不住就分散到多个实例中去,即分库可以解决 概括就是数据量大就分表,高并发就分库 如何选择 sharding key? 这是分表的依据,选择要考虑的因素取决于业务如何访问数据,让查询尽量落到一个分片中。如果分片无法兼容查询,可以把数据同步到其他存储中,供查询 常见的分片算法 1.范围分片 对查询友好,适合并发量不大的场景。但容易产生热点数据 2.哈希分片 比较均匀 3.查表法 灵活,性能差因为多了一次查表 实例案例 订单表分库分表 一般按用户id分,采用哈希分片算法。为了支持按订单号查询,可以把用户id的后几位放到订单号中
    展开
    共 1 条评论
    33
  • leslie
    2020-04-02
    是不是漏了另外一种拆分方式:纵向拆分?分表应当还有一个原因,早期数据量小可以几十个字段都没有关系;后期数据量大了,多列查询导致了一些性能问题。我自己在生产中就碰到了设计的不合理性,做了纵向分表-效果还不错,精度只能靠实战、学习、反思去提升。 课程中提及的分表所引发的外键问题其实应当和DML有关:查询并无影响。个人觉得影响不大,细看是多张表,但是设计时其实还是一张;查询时对应的判断补进去就好。
    展开

    作者回复: 👍👍👍

    共 2 条评论
    33
  • 百威
    2020-04-13
    接“发条橙子”“用完整用户id分片还是后四位分片”对话:为什么是一样的啊,没懂……比如300个分片,用取模法,用户id分别为12000和22000,后四位相同但查找的表不同呀……我感觉这块没说清楚,我听完之后也有这个疑惑

    作者回复: 这个地方详细说一下,比如只取用户ID后四位,为了保证后四位的哈希结果和完整用户ID的哈希结果是一样的,分片的数量需要能被10000整除。300个分片是不行的,200、250这种分片数量就是可以满足要求的。

    共 7 条评论
    28
  • sami
    2020-03-31
    感觉Redis Cluster的分片规则有点像查表法

    作者回复: 你说的没错!

    23
  • Mq
    2020-03-31
    关联表可以冗余用户ID字段,跟订单表的都在一个库里吗,这样用户维度的交易都在一个库事物里面,大部分的关联查询也是在一个库里。 老师查找法有具体例子吗,我们之前也有过表按hash分后数据极度不均

    作者回复: 查表法一般可以配合哈希或者范围分片一起使用。 比如说,我们按用户ID哈希分成10个分片,其中第8个分片数据特别多不均匀。 那我们可以按用户ID哈希成100个逻辑分片。 再做一个100逻辑分片和10个物理分片的映射表,这个表里面只有100条记录。 那怎么来映射我们就可以人工分配,让10个物理分片中的数据尽量均匀。

    共 3 条评论
    15
  • Loren
    2020-04-04
    老师,请教一个问题,分库分表以后,数据量大的情况下,分页一般该怎么处理?我暂时没这方面的经验,想了解一下

    作者回复: 如果需要分库分表还要跨表查询,这种情况下没有什么好的分页解决方案,业务还是要规避分库分表之后跨表查询的情况。 如果实在规避不了,就要考虑sharding key是不是合理,或者可能要更换数据库。

    共 6 条评论
    13
  • 2020-04-19
    请问老师,假设现在是24个分片,使用取模算法,后续发现分片后数据量还是太大,要改成扩大分片数,需要重新迁移数据吧?工作量大且复杂,该怎么设计比较方便扩容呢

    作者回复: 比较方便的方法是扩容后的分片数量是24的整数倍,这样每个分片相当于1分n。或者在设计之初就采用一致性哈希算法来分片。

    11
  • 饭团
    2020-03-31
    老师您好,您提到的把用户id放到订单id中,是说如果用订单id去做查询,就把第10-14位取出来,之后再用这部分去查询是吗?

    作者回复: 是的

    共 17 条评论
    8
  • Echo
    2020-05-16
    老师您好:您文中说“范围分片特别适合那种数据量非常大,但并发访问量不大的 ToB 系统”,如果是这样的话 并发量不大的ToB 系统就没必要分库了吧?因为分库要解决的是高并发的问题。可以用分表或者归档的方式解决?

    作者回复: 是这样的。

    7
  • 曙光
    2020-04-19
    老师,我有个生产问题,内部管理系统,使用的是Oracle数据库,按月分表,该表每天新增近6W的数据,目前共有1亿的数据量。现在的问题是,业务每天都需要查这个表进行对账,查询速度很慢,每次慢的适合,我们就重建索引速度就快一点,过一段时间又会变慢。最要命的事,这些数据有一个归属人的字段,如果某个人换部门或离职,这部分历史数据都要归宿新人,涉及历史数据的修改。 之前通过归档历史表,处理查询慢的问题,发现还没重建索引收益高,就没修改了。但是交易归属人就比较麻烦,一次变更需要2~3分钟,体验很差。我目前想的解决方案是:重构历史功能,将交易表拆分成两张表,账户表,交易余额对账表和人员归属表,虽然每天6w笔数据,但大部分账户是一样的只是余额不一样。这样查询的话,每次需要关联3张表。如果真的这样实施,需要修改很多中间表的洗数流程。面对目前的数据量,我这种方案可行么?还有更好的修改方案么? 怕自己盲目修改后,和之前的查询修改性能差不多,就白忙活了
    展开

    作者回复: 如果一亿的数据分12个月,那实际上每个月的表中大概是一千万左右的数据,这个量级的数据,在做好索引的前提下,查询不会很慢。 建议你先看一下查询的执行计划,找出为什么慢的原因。 另外,你没有提到表中的数据是否会频繁删除。如果频繁插入和删除数据的这张表,它的索引会越来越大,定期重建索引是有必要的。

    共 5 条评论
    7
  • 旅途
    2020-05-04
    老师 问几个问题 1.用户Id的根据性别的0,1,这样分表为什么会造成热点问题,只看到了分表数据可能不均匀? 2.使用分表映射表,这种如果要修改映射是怎么做的呢?是直接修改表记录还是修改代码,在生成的时候让他改变?

    作者回复: 1. 因为有可能用户的男女比例不同,造成分片不均衡,出现热点。 2. 如果要修改分片映射,一般的流程是:先完成扩容和数据复制,然后直接修改分片映射表。不需要修改代码。

    共 3 条评论
    6
  • 正在减肥的胖籽。
    2020-03-31
    老师您好,有几个问题需要请教你下: 1.运营后台查询数据,肯定就是查询很多数据,不止是单个用户的数据。京东怎么去处理运营后台的数据呢?是把数据同步到ES中还是?

    作者回复: 是的,一般是同步到其它的数据库中去解决。我会在19中来讲,如何做实时同步。

    6
  • 闫冬
    2020-04-17
    分表分库的原则,能通过其他方式优化的就不去分库分表,一来容易出错二来增加了系统的复杂度 根据不同的场景原则分库还是分表 如果是数据量大则分表 如果并发量大则分库 分表又分水平分表和垂直分表 垂直分表主要应用于当表的字段过多时,讲常用的字段分到一个表 不常用的分到一个表 水平分表比较复杂 可以按时间划分 也可以哈希 取模 时间划分比较适用于 经常按时段 热度没那么高的场景 因为如果有热点数据会造成分布不均衡 哈希 取模主要应用于按某个字段分表 分布比较均匀 但是范围查找又会有问题 可以通过冗余表来实现 异构表 相当于索引表 可以人为的调整 灵活 但是性能没有 哈希或取模快 有一个小技巧 就是订单号可以隐藏一些信息 这样避免一些场景的局限性
    展开
    共 3 条评论
    5
  • 虚竹
    2020-03-31
    老师好,订单id总共18位,10-14位放用户id的后几位,当用户要查询自己的所有订单时怎么查呢?这里没太明白

    作者回复: 直接用用户ID哈希,计算出这个用户的订单在哪个分片上,然后去查询就可以了。

    共 7 条评论
    5
  • gfgf
    2020-04-01
    用户id和订单id关联这块,订单中取用户id的几位来做分区分表的依据,这个做法是否会造成数据量的不均衡; 看到个人淘宝订单是嵌入了用户id的后几位,但是京东订单没有发现规律,这块能否请老师以淘宝和京东订单为例,做一个更深入的介绍

    作者回复: 订单号是怎么构成的,应该算是商业秘密了。因为如果你知道它的规律,是有可能从中获得一些信息的。所以各家都不会公布自己的订单号是如何构成的。

    4
  • 隰有荷
    2020-05-10
    是否可以采用mycat中间件的方式去实现分表,让代码使用过程中不感知分表带来的变化呢?

    作者回复: 某些场景下是可以的,具体还要根据业务情况来权衡。mycat的优点是对业务透明,不用修改代码,缺点是加长了调用链路,增加了故障点、降低了性能。

    3
  • Cha
    2020-06-24
    老师,请教一个问题。我看网上分库分表,有的说要2的N次方,没想明白是怎么个缘故。

    作者回复: 因为取模的时候更快一些,如果是业务类的系统,这点儿差别可以忽略不计了。 如果你是做存储系统或者中间件类产品,还是需要考虑这个因素的。

    共 3 条评论
    2
  • 建强
    2022-01-02
    思考题,和订单有外键关联的表也可以采用查表法来处理,单独搞一张表,里面存储外键ID和对应的分片信息,这样查询时,有外键的表在关联订单表时,需要多关联这张中间表。
    1
  • 夜辉
    2021-04-10
    老师讲了数据分片 并没有讲集群方案,例如MySQL Cluster 能详细介绍下嘛?
    1