极客时间已完结课程限时免费阅读

11 | NoSQL:在高并发场景下,数据库和NoSQL如何做到互补?

11 | NoSQL:在高并发场景下,数据库和NoSQL如何做到互补?-极客时间

11 | NoSQL:在高并发场景下,数据库和NoSQL如何做到互补?

讲述:唐扬

时长14:40大小13.42M

你好,我是唐扬。
前几节课,我带你了解了在你的垂直电商项目中,如何将传统的关系型数据库改造成分布式存储服务,以抵抗高并发和大流量的冲击。
对于存储服务来说,我们一般会从两个方面对它做改造:
1. 提升它的读写性能,尤其是读性能,因为我们面对的多是一些读多写少的产品。比方说,你离不开的微信朋友圈、微博和淘宝,都是查询 QPS 远远大于写入 QPS。
2. 增强它在存储上的扩展能力,从而应对大数据量的存储需求。
我之前带你学习的读写分离和分库分表就是从这两方面出发,改造传统的关系型数据库的,但仍有一些问题无法解决。
比如,在微博项目中关系的数据量达到了千亿,那么即使分隔成 1024 个库表,每张表的数据量也达到了亿级别,并且关系的数据量还在以极快的速度增加,即使你分隔成再多的库表,数据量也会很快增加到瓶颈。这个问题用传统数据库很难根本解决,因为它在扩展性方面是很弱的,这时,就可以利用 NoSQL,因为它有着天生分布式的能力,能够提供优秀的读写性能,可以很好地补充传统关系型数据库的短板。那么它是如何做到的呢?
这节课,我就还是以你的垂直电商系统为例,带你掌握如何用 NoSQL 数据库和关系型数据库互补,共同承担高并发和大流量的冲击。
首先,我们先来了解一下 NoSQL 数据库。

NoSQL,No SQL?

NoSQL 想必你很熟悉,它指的是不同于传统的关系型数据库的其他数据库系统的统称,它不使用 SQL 作为查询语言,提供优秀的横向扩展能力和读写性能,非常契合互联网项目高并发大数据的特点。所以一些大厂,比如小米、微博、陌陌都很倾向使用它来作为高并发大容量的数据存储服务。
NoSQL 数据库发展到现在,十几年间,出现了多种类型,我来给你举几个例子:
Redis、LevelDB 这样的 KV 存储。这类存储相比于传统的数据库的优势是极高的读写性能,一般对性能有比较高的要求的场景会使用。
Hbase、Cassandra 这样的列式存储数据库。这种数据库的特点是数据不像传统数据库以行为单位来存储,而是以列来存储,适用于一些离线数据统计的场景。
像 MongoDB、CouchDB 这样的文档型数据库。这种数据库的特点是 Schema Free(模式自由),数据表中的字段可以任意扩展,比如说电商系统中的商品有非常多的字段,并且不同品类的商品的字段也都不尽相同,使用关系型数据库就需要不断增加字段支持,而用文档型数据库就简单很多了。
在 NoSQL 数据库刚刚被应用时,它被认为是可以替代关系型数据库的银弹,在我看来,也许因为以下几个方面的原因:
弥补了传统数据库在性能方面的不足;
数据库变更方便,不需要更改原先的数据结构;
适合互联网项目常见的大数据量的场景;
不过,这种看法是个误区,因为慢慢地我们发现在业务开发的场景下还是需要利用 SQL 语句的强大的查询功能以及传统数据库事务和灵活的索引等功能,NoSQL 只能作为一些场景的补充。
那么接下来,我就带你了解 NoSQL 数据库是如何做到与关系数据库互补的。了解这部分内容,你可以在实际项目中更好地使用 NoSQL 数据库补充传统数据库的不足。
首先,我们来关注一下数据库的写入性能。

使用 NoSQL 提升写入性能

数据库系统大多使用的是传统的机械磁盘,对于机械磁盘的访问方式有两种:一种是随机 IO;另一种是顺序 IO。随机 IO 就需要花费时间做昂贵的磁盘寻道,一般来说,它的读写效率要比顺序 IO 小两到三个数量级,所以我们想要提升写入的性能就要尽量减少随机 IO。
以 MySQL 的 InnoDB 存储引擎来说,更新 binlog、redolog、undolog 都是在做顺序 IO,而更新 datafile 和索引文件则是在做随机 IO,而为了减少随机 IO 的发生,关系数据库已经做了很多的优化,比如说写入时先写入内存,然后批量刷新到磁盘上,但是随机 IO 还是会发生。
索引在 InnoDB 引擎中是以 B+ 树(上一节课提到了 B+ 树,你可以回顾一下)方式来组织的,而 MySQL 主键是聚簇索引(一种索引类型,数据与索引数据放在一起),既然数据和索引数据放在一起,那么在数据插入或者更新的时候,我们需要找到要插入的位置,再把数据写到特定的位置上,这就产生了随机的 IO。而且一旦发生了页分裂,就不可避免会做数据的移动,也会极大地损耗写入性能。
NoSQL 数据库是怎么解决这个问题的呢?
它们有多种的解决方式,这里我给你讲一种最常见的方案,就是很多 NoSQL 数据库都在使用的基于 LSM 树的存储引擎,这种算法使用最多,所以在这里着重剖析一下。
LSM 树(Log-Structured Merge Tree)牺牲了一定的读性能来换取写入数据的高性能,Hbase、Cassandra、LevelDB 都是用这种算法作为存储的引擎。
它的思想很简单,数据首先会写入到一个叫做 MemTable 的内存结构中,在 MemTable 中数据是按照写入的 Key 来排序的。为了防止 MemTable 里面的数据因为机器掉电或者重启而丢失,一般会通过写 Write Ahead Log 的方式将数据备份在磁盘上。
MemTable 在累积到一定规模时,它会被刷新生成一个新的文件,我们把这个文件叫做 SSTable(Sorted String Table)。当 SSTable 达到一定数量时,我们会将这些 SSTable 合并,减少文件的数量,因为 SSTable 都是有序的,所以合并的速度也很快。
当从 LSM 树里面读数据时,我们首先从 MemTable 中查找数据,如果数据没有找到,再从 SSTable 中查找数据。因为存储的数据都是有序的,所以查找的效率是很高的,只是因为数据被拆分成多个 SSTable,所以读取的效率会低于 B+ 树索引。
和 LSM 树类似的算法有很多,比如说 TokuDB 使用的名为 Fractal tree 的索引结构,它们的核心思想就是将随机 IO 变成顺序的 IO,从而提升写入的性能。
在后面的缓存篇中,我也将给你着重介绍我们是如何使用 KV 型 NoSQL 存储来提升读性能的。所以你看,NoSQL 数据库补充关系型数据库的第一种方式就是提升读写性能。

场景补充

除了可以提升性能之外,NoSQL 数据库还可以在某些场景下作为传统关系型数据库的补充,来看一个具体的例子。
假设某一天,CEO 找到你并且告诉你,他正在为你的垂直电商项目规划搜索的功能,需要支持按照商品的名称模糊搜索到对应的商品,希望你尽快调研出解决方案。
一开始,你认为这非常的简单,不就是在数据库里面执行一条类似:“select * from product where name like ‘%***%’”的语句吗?可是在实际执行的过程中,却发现了问题。
你发现这类语句并不是都能使用到索引,只有后模糊匹配的语句才能使用索引。比如语句“select * from product where name like ‘% 电冰箱’”就没有使用到字段“name”上的索引,而“select * from product where name like ‘索尼 %’”就使用了“name”上的索引。而一旦没有使用索引就会扫描全表的数据,在性能上是无法接受的。
于是你在谷歌上搜索了一下解决方案,发现大家都在使用开源组件 Elasticsearch 来支持搜索的请求,它本身是基于“倒排索引”来实现的,那么什么是倒排索引呢?
倒排索引是指将记录中的某些列做分词,然后形成的分词与记录 ID 之间的映射关系。比如说,你的垂直电商项目里面有以下记录:
那么,我们将商品名称做简单的分词,然后建立起分词和商品 ID 的对应关系,就像下面展示的这样:
这样,如果用户搜索电冰箱,就可以给他展示商品 ID 为 1 和 3 的两件商品了。
而 Elasticsearch 作为一种常见的 NoSQL 数据库,就以倒排索引作为核心技术原理,为你提供了分布式的全文搜索服务,这在传统的关系型数据库中使用 SQL 语句是很难实现的。所以你看,NoSQL 可以在某些业务场景下代替传统数据库提供数据存储服务。

提升扩展性

另外,在扩展性方面,很多 NoSQL 数据库也有着先天的优势。还是以你的垂直电商系统为例,你已经为你的电商系统增加了评论系统,开始你的评估比较乐观,觉得电商系统的评论量级不会增长很快,所以就为它分了 8 个库,每个库拆分成 16 张表。
但是评论系统上线之后,存储量级增长的异常迅猛,你不得不将数据库拆分成更多的库表,而数据也要重新迁移到新的库表中,过程非常痛苦,而且数据迁移的过程也非常容易出错。
这时,你考虑是否可以考虑使用 NoSQL 数据库来彻底解决扩展性的问题,经过调研你发现它们在设计之初就考虑到了分布式和大数据存储的场景,比如像 MongoDB 就有三个扩展性方面的特性。
其一是 Replica,也叫做副本集,你可以理解为主从分离,也就是通过将数据拷贝成多份来保证当主挂掉后数据不会丢失。同时呢,Replica 还可以分担读请求。Replica 中有主节点来承担写请求,并且把数据变动记录到 oplog 里(类似于 binlog);从节点接收到 oplog 后就会修改自身的数据以保持和主节点的一致。一旦主节点挂掉,MongoDB 会从从节点中选取一个节点成为主节点,可以继续提供写数据服务。
其二是 Shard,也叫做分片,你可以理解为分库分表,即将数据按照某种规则拆分成多份,存储在不同的机器上。MongoDB 的 Sharding 特性一般需要三个角色来支持,一个是 Shard Server,它是实际存储数据的节点,是一个独立的 Mongod 进程;二是 Config Server,也是一组 Mongod 进程,主要存储一些元信息,比如说哪些分片存储了哪些数据等;最后是 Route Server,它不实际存储数据,仅仅作为路由使用,它从 Config Server 中获取元信息后,将请求路由到正确的 Shard Server 中。
其三是负载均衡,就是当 MongoDB 发现 Shard 之间数据分布不均匀,会启动 Balancer 进程对数据做重新的分配,最终让不同 Shard Server 的数据可以尽量的均衡。当我们的 Shard Server 存储空间不足需要扩容时,数据会自动被移动到新的 Shard Server 上,减少了数据迁移和验证的成本。
你可以看到,NoSQL 数据库中内置的扩展性方面的特性可以让我们不再需要对数据库做分库分表和主从分离,也是对传统数据库一个良好的补充。
你可能会觉得,NoSQL 已经成熟到可以代替关系型数据库了,但是就目前来看,NoSQL 只能作为传统关系型数据库的补充而存在,弥补关系型数据库在性能、扩展性和某些场景下的不足,所以你在使用或者选择时要结合自身的场景灵活地运用。

课程小结

本节课我带你了解了 NoSQL 数据库在性能、扩展性上的优势,以及它的一些特殊功能特性,主要有以下几点:
1. 在性能方面,NoSQL 数据库使用一些算法将对磁盘的随机写转换成顺序写,提升了写的性能;
2. 在某些场景下,比如全文搜索功能,关系型数据库并不能高效地支持,需要 NoSQL 数据库的支持;
3. 在扩展性方面,NoSQL 数据库天生支持分布式,支持数据冗余和数据分片的特性。
这些都让它成为传统关系型数据库的良好的补充,你需要了解的是,NoSQL 可供选型的种类很多,每一个组件都有各自的特点。你在做选型的时候需要对它的实现原理有比较深入的了解,最好在运维方面对它有一定的熟悉,这样在出现问题时才能及时找到解决方案。否则,盲目跟从地上了一个新的 NoSQL 数据库,最终可能导致会出了故障无法解决,反而成为整体系统的拖累。
我在之前的项目中曾经使用 Elasticsearch 作为持久存储,支撑社区的 feed 流功能,初期开发的时候确实很爽,你可以针对 feed 中的任何字段做灵活高效地查询,业务功能迭代迅速,代码也简单易懂。可是到了后期流量上来之后,由于缺少对于 Elasticsearch 成熟的运维能力,造成故障频出,尤其到了高峰期就会出现节点不可用的问题,而由于业务上的巨大压力又无法分出人力和精力对 Elasticsearch 深入的学习和了解,最后不得不做大的改造切回熟悉的 MySQL。所以,对于开源组件的使用,不能只停留在只会“hello world”的阶段,而应该对它有足够的运维上的把控能力。

一课一思

NoSQL 数据库是可以与传统的关系型数据库配合,一起解决数据存储问题的,那么在日常工作中,你用到了哪些 NoSQL 数据库呢?在选型的时候是基于什么样的考虑呢?欢迎在留言区与我分享你的经验。
最后,感谢你的阅读,如果这篇文章让你有所收获,也欢迎你将它分享给更多的朋友。
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 33

提建议

上一篇
10 | 发号器:如何保证分库分表后ID的全局唯一性?
下一篇
12 | 缓存:数据库成为瓶颈后,动态数据的查询要如何加速?
 写留言

精选留言(61)

  • Richeir
    置顶
    2019-10-11
    这一节学到了很多新东西,感谢唐老师的总结!
    共 2 条评论
    18
  • 无形
    2019-11-01
    之前在讲座业务重构中,用es查询数据,其他组的小伙伴维护的es,但是es性能不行,where条件里七八个字段,排序两个字段,查询es基本两千左右QPS,难以支撑支撑十几万人的直播讲座,而且直播人数增长很快,es已经成为了性能瓶颈,查询条件是类标签的,比如几年级,哪个学科,直播类型,还有时间类的,对于这些字段我是可以打标签的,还有开始时间、结束时间,根据类标签的查询特点,我使用了倒排索引+ roaring bitmap 来过滤,使用快速排序对多字段进行排序。使用类延时队列来完成时间的检索。整个检索过程在微秒级,而且对查询的结果做了缓存,查询条件相同的直接从缓存中取,避免了重复检索和排序,查询缓存会在讲座下次修改,更新倒排索引之后清空。重建查询缓存。重构完讲座的检索性能达到了几十倍的性能提升
    展开

    作者回复: 👍👍👍

    共 19 条评论
    66
  • yaomon
    2019-10-11
    目前的项目就是 MySql 配合 Elasticsearch 使用。Elasticsearch主要是做搜索用,写还是 MySql,同时发Kafka消息,消费端写ES。ES存在丢数据的问题,所以会定时全量/增量从 MySql 中捞数据,覆写 ES,保证数据的一直性。

    作者回复: 是的 应该是这样

    共 6 条评论
    38
  • jiangjing
    2019-10-12
    希望可以深入讲解nosql的业务使用场景,比如微博用户关系具体如何使用,模型定义。尤其是该使用场景,如何做到关系数据库不好实现的功能
    25
  • 无形
    2019-11-01
    之前单表热点数据接近亿级,查询时间达到了8秒左右,后来进行了分表,按照ID取模分了一百张表,历史数据取模插入到分表中,新建了一张表用来保存全局唯一ID,每次新建热点都会更新全局唯一ID,保证分表之后ID唯一性,查询使用es,GitHub上找了一个开源的MySQL数据同步到es的工具,模拟的从库,保证了数据同步的实时性,热点数据查询性能降低到了1秒内。性能得到很大提升
    共 1 条评论
    24
  • Lion
    2019-10-11
    我们正有这些痛点,思路不错,能更深入一些就更好了!
    共 1 条评论
    13
  • Y
    2019-10-30
    老师你好 业务中有个模块写极多读少,这种情况下是不是直接把这个数据拆分出来用单独nosql存储比较好?还是先写到nosql,再慢写到mysql好? 如果慢写到mysql一是可能会出现数据不一致问题,二是写请求会积累很多,内存型nosql支撑不住,可能要用leveldb之类的,磁盘多了一份数据,等要迁移的时候又增加了运维管理成本
    展开

    作者回复: 如果是长期都是写多读少,那么可以考虑nosql 如果是瞬时峰值的话,还是用消息队列削峰填谷

    11
  • XD
    2019-11-03
    老师不提一下tidb?
    9
  • jc9090kkk
    2019-10-11
    感谢老师分享,对于文中的知识点有一些疑问,希望老师能解答下: 1.采用LSM树的nosql,跟mysql的WAL机制类似,mysql通过redo log和bin log的两阶段提交来保证数据的crash-safe,那么nosql的日志是用来做什么呢?也是为了做数据恢复的吗? 2.像Hbase这样的nosql,涉及的初衷应该是为了做统计而设计的,它支持事务吗?如果支持的话,使用场景是什么?事务的隔离级别都有哪些?因为以我的理解,统计业务,基本都是读请求,很少有写请求,用事务的场景应该极少吧? 3.因为nosql相比传统的关系型数据库来说,拓展性更好,那么就更适合做分布式系统?后期老师有想法讲一讲比如类似redis或者mongoDB这样的系统,分布式系统的一些实际经验或者说踩过什么坑么?很想了解下。。。 思考问题: 公司现在用的nosql包括Redis,ES,Kafka,ClickHouse,采用Redis是用来做cache和秒杀活动,也会有一些异步化的处理,采用Kafka+ES是一是为了采集业务端用户行为,二是ES+Kibana可以提供可视化的数据分析平台供运营部门使用,而且ES在后期的水平拓展的方案上来讲配置和维护比较简单(相比Sphinx而言),为什么采用是因为公司之前接的是第三方的数据统计平台,后期发现统计需要单独定制而且会污染业务代码不好维护,而且有时候会发现数据日志还有丢失的情况导致数据统计异常,所以采用Kafka+ES一起来支撑,从而将业务端的一些耦合较重的埋点逻辑分离出去便于维护,CLickHouse主要是为了生成一些离线的数据报表。
    展开

    作者回复: 1. LSM使用WAL也是为了恢复memtable的数据的 2. 是不涉及事务的 3. 好的呀~

    共 2 条评论
    9
  • fomy
    2019-11-19
    工作中使用过的Nosql数据库: ES,主要用来解决首页查询,通过logstash同步各个表的数据到ES,然后根据关键字进行查询。还有关键字联想也做了。 Redis主要用来做缓存的,提高查询效率的,还有秒杀也会用到缓存先减库存。 MongoDB主要用来存储非关系型数据,比如节点下再有节点。还有使用它来计算坐标点的距离。
    展开
    6
  • 饭团
    2019-10-11
    老师,是不是这个意思: 首先不管是sql数据库还是nosql数据库,提升写性能都是靠的将随机写转化为顺序写!在这方面mysql使用WAL机制已经做的很好了!但是关系形数据库主要是在扩展性方面有缺陷!相对于除了kv型的nosql数据库,其他类型的和mysql性能都差不多! 感觉mysql主要是在扩展性上有所欠缺!

    作者回复: benchmark结果来看,nosql的写入性能要好一些

    共 2 条评论
    5
  • 2020-04-14
    目前REDIS/ES/MQ基本是标配,具体使用那个确实需要深入了解每个存储系统的特性和优劣势,这样才能扬长避短,深入了解需要时间和精力,不过干IT就需要一直学习。老师讲的本就是科普的,这些存储系统那个深入理解都需要花费许多的时间和精力,也有对应的专栏在。不过听听,总会有所受益的。

    作者回复: 赞👍

    4
  • 长期规划
    2019-12-22
    老师,MongoDB从4.0之后已经支持多文档事务了。之前谈到MySQL与MongoDB,都说当使用事务时,要用MySQL,但现在MySQL对MongoDB的优势已经随着MongoDB的进化而基本没有了,而MongoDB在可用性,可扩展性方面完胜MySQL,我感觉都没有使用MySQL的必要了。不知道这种看法是否正确

    作者回复: 只是如果没有大规模使用和维护mongodb的经验,还是不敢使用的。MySQL毕竟无论是在社区还是在普及度上会更好,从招人上也能看出,熟悉MySQL的DBA比熟悉MongoDB的DBA要多很多

    共 4 条评论
    4
  • 某某丶
    2019-10-22
    老师你好,我看到网络上的es+mysql协作使用的方案, 1.将数据存储到mysql、将索引字段存储到es(新增数据的时候先写入到mysql然后kafka到es),然后根据条件在es中检索出符合条件的记录id数组,然后再根据ids到mysql 中in子查询 ids在多个表(分表)中取回数据吗,效率会高吗?,毕竟查出来在in查询,in的id还要走分表键 2.将es的修改flush到磁盘设置为每次写操作的时候执行数据不会丢失、性能会急剧下降吗,就是相关的数据直接存es,检索不用去mysql回表查这样合理吗? 3.往mysql写的时候就向kafka中写入数据然后消费者取到后就往es中写,这个过程需要消费者缓存一定的消息数量再批量写到es中吗,还是就是消费者接到消息实时写,或者实时写会有什么问题? 希望导师解惑
    展开
    5
  • Liush
    2019-10-14
    老师你好: 其实我对什么时候使用SQL,NOSQL,或者是NEWSQL一直存在很多疑问,就比如微博来说,每天微博增加的博文数量应该是非常大的,如果这部分用关系型数据库来存储是不是分库会很快达到瓶颈?这样会造成重新迁移分布数据,如果手动去迁移分布这部分数据,由于存在大量的历史数据迁移时间是否又是一个问题呢?像微博博文这部分是存储在SQL中还是NOSQL中?如果用nosql的话后续只要简单的将节点加入集群即可,auto sharding的特性会方便很多。如果按照我的理解在电商领域中,订单是核心系统,而且和订单系统关联的商品等数据,这部分使用关系型数据库分库分表的方式去处理,因为这部分系统需要保证事务,但是像商品详情这部分并不需要强事务的数据是否可以存储在NOSQL中?谢谢
    展开

    作者回复: 微博的博文是放在MySQL里面的,其实博文的数量没有关系那么夸张,而且热点明显,用户很少会翻之前的微博。 订单的数据可能和博文的数据相当,我觉得放在mysql中应该就够了

    4
  • gogo
    2019-10-11
    老师您好,你文中微博关系的例子中提到传统关系型数据库扩展性的短板,又说明了nosql有很好的性能和扩展性,请问拿微博关系的例子来说,是可以单独用nosql存储呢,还是既要存在nosql中又要保存在msylq中呢?

    作者回复: 大部分放在mysql,像是粉丝数据是在nosql

    4
  • 饭团
    2019-10-11
    老师,再问个问题!如果一类数据需要在nosql和关系形数据库都存储,需要存2次吗?现实开发中这样的情况多吗?能举个例子吗?

    作者回复: 是的呀 比如你的业务数据放在mysql,索引数据放在es

    共 2 条评论
    4
  • 扬一场远远的风
    2019-12-28
    NOSql使用LSM 树(Log-Structured Merge Tree),牺牲了一定的读性能来换取写入数据的高性能,Hbase、Cassandra、LevelDB 都是用这种算法作为存储的引擎。是不是就是因为读性能的原因,所以走支持自动分片的mongodb, es ,hbase现在还不能替代 mysql (即使mysql 需要在client 写大量的代码来实现分区)?

    作者回复: 我觉得还是成熟度的原因

    3
  • 长期规划
    2019-12-16
    老师,我还是没明白为何LSM写入快。MySQL的B+树也是先写内存,然后定期刷盘,在数据页中,数据也是有序的(按主键排)。 LSM中的SSTable应该也是有大小的吧,类似于MySQL的数据页有大小(好像是不到1M)。访问不同的SSTable也是随机访问啊,为何写入会快?
    共 2 条评论
    3
  • licong
    2019-10-16
    关于《使用 NoSQL 提升写入性能》的那段,我还是有点想法: 即使是NoSQL的一些组件,假如是写磁盘的话,再怎么优化改进,也跟MySQL等传统的关系型数据库的写入性能差不多,都是同一个量级的。 Redis、MemCache等NoSQL数据库之所以读写性能高,是因为直接读写的内存,跟关系型数据库读写磁盘(也会缓存部分数据在内存中),利用的物理资源的性能都完全不是一个数量级。跟具体操作的物理资源的特性关系比较大。
    展开

    作者回复: 在实际运用中,nosql数据库比如leveldb确实比mysql有后来更好的写入性能

    共 3 条评论
    3