极客时间已完结课程限时免费阅读

33 | 我查这么多数据,会不会把数据库内存打爆?

33 | 我查这么多数据,会不会把数据库内存打爆?-极客时间

33 | 我查这么多数据,会不会把数据库内存打爆?

讲述:林晓斌

时长14:33大小13.29M

我经常会被问到这样一个问题:我的主机内存只有 100G,现在要对一个 200G 的大表做全表扫描,会不会把数据库主机的内存用光了?
这个问题确实值得担心,被系统 OOM(out of memory)可不是闹着玩的。但是,反过来想想,逻辑备份的时候,可不就是做整库扫描吗?如果这样就会把内存吃光,逻辑备份不是早就挂了?
所以说,对大表做全表扫描,看来应该是没问题的。但是,这个流程到底是怎么样的呢?

全表扫描对 server 层的影响

假设,我们现在要对一个 200G 的 InnoDB 表 db1. t,执行一个全表扫描。当然,你要把扫描结果保存在客户端,会使用类似这样的命令:
mysql -h$host -P$port -u$user -p$pwd -e "select * from db1.t" > $target_file
你已经知道了,InnoDB 的数据是保存在主键索引上的,所以全表扫描实际上是直接扫描表 t 的主键索引。这条查询语句由于没有其他的判断条件,所以查到的每一行都可以直接放到结果集里面,然后返回给客户端。
那么,这个“结果集”存在哪里呢?
实际上,服务端并不需要保存一个完整的结果集。取数据和发数据的流程是这样的:
获取一行,写到 net_buffer 中。这块内存的大小是由参数 net_buffer_length 定义的,默认是 16k。
重复获取行,直到 net_buffer 写满,调用网络接口发出去。
如果发送成功,就清空 net_buffer,然后继续取下一行,并写入 net_buffer。
如果发送函数返回 EAGAIN 或 WSAEWOULDBLOCK,就表示本地网络栈(socket send buffer)写满了,进入等待。直到网络栈重新可写,再继续发送。
这个过程对应的流程图如下所示。
图 1 查询结果发送流程
从这个流程中,你可以看到:
一个查询在发送过程中,占用的 MySQL 内部的内存最大就是 net_buffer_length 这么大,并不会达到 200G;
socket send buffer 也不可能达到 200G(默认定义 /proc/sys/net/core/wmem_default),如果 socket send buffer 被写满,就会暂停读数据的流程。
也就是说,MySQL 是“边读边发的”,这个概念很重要。这就意味着,如果客户端接收得慢,会导致 MySQL 服务端由于结果发不出去,这个事务的执行时间变长。
比如下面这个状态,就是我故意让客户端不去读 socket receive buffer 中的内容,然后在服务端 show processlist 看到的结果。
图 2 服务端发送阻塞
如果你看到 State 的值一直处于“Sending to client”,就表示服务器端的网络栈写满了。
我在上一篇文章中曾提到,如果客户端使用–quick 参数,会使用 mysql_use_result 方法。这个方法是读一行处理一行。你可以想象一下,假设有一个业务的逻辑比较复杂,每读一行数据以后要处理的逻辑如果很慢,就会导致客户端要过很久才会去取下一行数据,可能就会出现如图 2 所示的这种情况。
因此,对于正常的线上业务来说,如果一个查询的返回结果不会很多的话,我都建议你使用 mysql_store_result 这个接口,直接把查询结果保存到本地内存。
当然前提是查询返回结果不多。在第 30 篇文章评论区,有同学说到自己因为执行了一个大查询导致客户端占用内存近 20G,这种情况下就需要改用 mysql_use_result 接口了。
另一方面,如果你在自己负责维护的 MySQL 里看到很多个线程都处于“Sending to client”这个状态,就意味着你要让业务开发同学优化查询结果,并评估这么多的返回结果是否合理。
而如果要快速减少处于这个状态的线程的话,将 net_buffer_length 参数设置为一个更大的值是一个可选方案。
与“Sending to client”长相很类似的一个状态是“Sending data”,这是一个经常被误会的问题。有同学问我说,在自己维护的实例上看到很多查询语句的状态是“Sending data”,但查看网络也没什么问题啊,为什么 Sending data 要这么久?
实际上,一个查询语句的状态变化是这样的(注意:这里,我略去了其他无关的状态):
MySQL 查询语句进入执行阶段后,首先把状态设置成“Sending data”;
然后,发送执行结果的列相关的信息(meta data) 给客户端;
再继续执行语句的流程;
执行完成后,把状态设置成空字符串。
也就是说,“Sending data”并不一定是指“正在发送数据”,而可能是处于执行器过程中的任意阶段。比如,你可以构造一个锁等待的场景,就能看到 Sending data 状态。
图 3 读全表被锁
图 4 Sending data 状态
可以看到,session B 明显是在等锁,状态显示为 Sending data。
也就是说,仅当一个线程处于“等待客户端接收结果”的状态,才会显示"Sending to client";而如果显示成“Sending data”,它的意思只是“正在执行”。
现在你知道了,查询的结果是分段发给客户端的,因此扫描全表,查询返回大量的数据,并不会把内存打爆。
在 server 层的处理逻辑我们都清楚了,在 InnoDB 引擎里面又是怎么处理的呢? 扫描全表会不会对引擎系统造成影响呢?

全表扫描对 InnoDB 的影响

第 2第 15 篇文章中,我介绍 WAL 机制的时候,和你分析了 InnoDB 内存的一个作用,是保存更新的结果,再配合 redo log,就避免了随机写盘。
内存的数据页是在 Buffer Pool (BP) 中管理的,在 WAL 里 Buffer Pool 起到了加速更新的作用。而实际上,Buffer Pool 还有一个更重要的作用,就是加速查询。
在第 2 篇文章的评论区有同学问道,由于有 WAL 机制,当事务提交的时候,磁盘上的数据页是旧的,那如果这时候马上有一个查询要来读这个数据页,是不是要马上把 redo log 应用到数据页呢?
答案是不需要。因为这时候内存数据页的结果是最新的,直接读内存页就可以了。你看,这时候查询根本不需要读磁盘,直接从内存拿结果,速度是很快的。所以说,Buffer Pool 还有加速查询的作用。
而 Buffer Pool 对查询的加速效果,依赖于一个重要的指标,即:内存命中率
你可以在 show engine innodb status 结果中,查看一个系统当前的 BP 命中率。一般情况下,一个稳定服务的线上系统,要保证响应时间符合要求的话,内存命中率要在 99% 以上。
执行 show engine innodb status ,可以看到“Buffer pool hit rate”字样,显示的就是当前的命中率。比如图 5 这个命中率,就是 99.0%。
图 5 show engine innodb status 显示内存命中率
如果所有查询需要的数据页都能够直接从内存得到,那是最好的,对应的命中率就是 100%。但,这在实际生产上是很难做到的。
InnoDB Buffer Pool 的大小是由参数 innodb_buffer_pool_size 确定的,一般建议设置成可用物理内存的 60%~80%。
在大约十年前,单机的数据量是上百个 G,而物理内存是几个 G;现在虽然很多服务器都能有 128G 甚至更高的内存,但是单机的数据量却达到了 T 级别。
所以,innodb_buffer_pool_size 小于磁盘的数据量是很常见的。如果一个 Buffer Pool 满了,而又要从磁盘读入一个数据页,那肯定是要淘汰一个旧数据页的。
InnoDB 内存管理用的是最近最少使用 (Least Recently Used, LRU) 算法,这个算法的核心就是淘汰最久未使用的数据。
下图是一个 LRU 算法的基本模型。
图 6 基本 LRU 算法
InnoDB 管理 Buffer Pool 的 LRU 算法,是用链表来实现的。
在图 6 的状态 1 里,链表头部是 P1,表示 P1 是最近刚刚被访问过的数据页;假设内存里只能放下这么多数据页;
这时候有一个读请求访问 P3,因此变成状态 2,P3 被移到最前面;
状态 3 表示,这次访问的数据页是不存在于链表中的,所以需要在 Buffer Pool 中新申请一个数据页 Px,加到链表头部。但是由于内存已经满了,不能申请新的内存。于是,会清空链表末尾 Pm 这个数据页的内存,存入 Px 的内容,然后放到链表头部。
从效果上看,就是最久没有被访问的数据页 Pm,被淘汰了。
这个算法乍一看上去没什么问题,但是如果考虑到要做一个全表扫描,会不会有问题呢?
假设按照这个算法,我们要扫描一个 200G 的表,而这个表是一个历史数据表,平时没有业务访问它。
那么,按照这个算法扫描的话,就会把当前的 Buffer Pool 里的数据全部淘汰掉,存入扫描过程中访问到的数据页的内容。也就是说 Buffer Pool 里面主要放的是这个历史数据表的数据。
对于一个正在做业务服务的库,这可不妙。你会看到,Buffer Pool 的内存命中率急剧下降,磁盘压力增加,SQL 语句响应变慢。
所以,InnoDB 不能直接使用这个 LRU 算法。实际上,InnoDB 对 LRU 算法做了改进。
图 7 改进的 LRU 算法
在 InnoDB 实现上,按照 5:3 的比例把整个 LRU 链表分成了 young 区域和 old 区域。图中 LRU_old 指向的就是 old 区域的第一个位置,是整个链表的 5/8 处。也就是说,靠近链表头部的 5/8 是 young 区域,靠近链表尾部的 3/8 是 old 区域。
改进后的 LRU 算法执行流程变成了下面这样。
图 7 中状态 1,要访问数据页 P3,由于 P3 在 young 区域,因此和优化前的 LRU 算法一样,将其移到链表头部,变成状态 2。
之后要访问一个新的不存在于当前链表的数据页,这时候依然是淘汰掉数据页 Pm,但是新插入的数据页 Px,是放在 LRU_old 处。
处于 old 区域的数据页,每次被访问的时候都要做下面这个判断:
若这个数据页在 LRU 链表中存在的时间超过了 1 秒,就把它移动到链表头部;
如果这个数据页在 LRU 链表中存在的时间短于 1 秒,位置保持不变。1 秒这个时间,是由参数 innodb_old_blocks_time 控制的。其默认值是 1000,单位毫秒。
这个策略,就是为了处理类似全表扫描的操作量身定制的。还是以刚刚的扫描 200G 的历史数据表为例,我们看看改进后的 LRU 算法的操作逻辑:
扫描过程中,需要新插入的数据页,都被放到 old 区域 ;
一个数据页里面有多条记录,这个数据页会被多次访问到,但由于是顺序扫描,这个数据页第一次被访问和最后一次被访问的时间间隔不会超过 1 秒,因此还是会被保留在 old 区域;
再继续扫描后续的数据,之前的这个数据页之后也不会再被访问到,于是始终没有机会移到链表头部(也就是 young 区域),很快就会被淘汰出去。
可以看到,这个策略最大的收益,就是在扫描这个大表的过程中,虽然也用到了 Buffer Pool,但是对 young 区域完全没有影响,从而保证了 Buffer Pool 响应正常业务的查询命中率。

小结

今天,我用“大查询会不会把内存用光”这个问题,和你介绍了 MySQL 的查询结果,发送给客户端的过程。
由于 MySQL 采用的是边算边发的逻辑,因此对于数据量很大的查询结果来说,不会在 server 端保存完整的结果集。所以,如果客户端读结果不及时,会堵住 MySQL 的查询过程,但是不会把内存打爆。
而对于 InnoDB 引擎内部,由于有淘汰策略,大查询也不会导致内存暴涨。并且,由于 InnoDB 对 LRU 算法做了改进,冷数据的全表扫描,对 Buffer Pool 的影响也能做到可控。
当然,我们前面文章有说过,全表扫描还是比较耗费 IO 资源的,所以业务高峰期还是不能直接在线上主库执行全表扫描的。
最后,我给你留一个思考题吧。
我在文章中说到,如果由于客户端压力太大,迟迟不能接收结果,会导致 MySQL 无法发送结果而影响语句执行。但,这还不是最糟糕的情况。
你可以设想出由于客户端的性能问题,对数据库影响更严重的例子吗?或者你是否经历过这样的场景?你又是怎么优化的?
你可以把你的经验和分析写在留言区,我会在下一篇文章的末尾和你讨论这个问题。感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一起阅读。

上期问题时间

上期的问题是,如果一个事务被 kill 之后,持续处于回滚状态,从恢复速度的角度看,你是应该重启等它执行结束,还是应该强行重启整个 MySQL 进程。
因为重启之后该做的回滚动作还是不能少的,所以从恢复速度的角度来说,应该让它自己结束。
当然,如果这个语句可能会占用别的锁,或者由于占用 IO 资源过多,从而影响到了别的语句执行的话,就需要先做主备切换,切到新主库提供服务。
切换之后别的线程都断开了连接,自动停止执行。接下来还是等它自己执行完成。这个操作属于我们在文章中说到的,减少系统压力,加速终止逻辑。
评论区留言点赞板:
@HuaMax 的回答中提到了对其他线程的影响;
@夹心面包 @Ryoma @曾剑 同学提到了重启后依然继续做回滚操作的逻辑。
分享给需要的人,Ta购买本课程,你将得20
生成海报并分享

赞 50

提建议

上一篇
32 | 为什么还有kill不掉的语句?
下一篇
34 | 到底可不可以使用join?
unpreview
 写留言

精选留言(87)

  • 700
    置顶
    2019-01-28
    老师,您好。根据文章内容,提炼如下信息: 如果你看到 State 的值一直处于“Sending to client”,就表示服务器端的网络栈写满了。 如何处理? 1)使用 mysql_store_result 这个接口,直接把查询结果保存到本地内存。 2)优化查询结果,并评估这么多的返回结果是否合理。 3)而如果要快速减少处于这个状态的线程的话,将 net_buffer_length 参数设置为一个更大的值是一个可选方案。 对于第3)方案不是很懂,“Sending to client” 表示服务器端的网路栈写满了,那不是应该加大 socket send buffer 吗?跟加大 net_buffer_length 有什么关系?net_buffer_length 加再大,但 socket send buffer 很小的话,网络栈不还是处于写满状态?
    展开

    作者回复: 好问题👍 很好的思考👍 是这样的,net_buffer_length 的最大值是 1G,这个值比 socket send buffer大(一般是几M) 比如假设一个业务,他的平均查询结果都是10M (当然这个业务有有问题,最终是要通过业务解决) 但是如果我把net_buffer_length 改成10M,就不会有“Sending to client” 的情况。虽然网络栈还是慢慢发的,但是那些没发完的都缓存在net_buffer中,对于执行器来说,都是“已经写出去了”。

    共 10 条评论
    97
  • 长杰
    2019-01-28
    遇到过一个场景,用mysqldump对业务db做逻辑备份保存在客户端,客户端是虚拟机,磁盘很快满了,导致server端出现sending to client状态,更糟糕的是业务db更新频繁,导致undo表空间变大,db服务堵塞,服务端磁盘空间不足。

    作者回复: 非常好,正是我要说明的一个场景呢,直接用你的例子放在下篇答疑部分哈

    共 4 条评论
    87
  • IceGeek17
    2019-02-14
    老师你好,几个问题: 按照文中所述,net_buffer是属于MySQL Server层的,在InnoDB引擎层,会使用buffer pool (以page的形式),也就是一个查询所占用的内存是: net_buffer + buffer pool里相关的page页 是不是可以这么理解? 当net_buffer写满,会调用网络接口发出去,net_buffer里的内容是如何发给socket send buffer的, 是一行一行的扔给socket send buffer,还是把net_buffer 里的内容一下子全部扔给 socket send buffer ? 文中说发送成功然后清空net_buffer, 这里net_buffer是如何清空的,是等net_buffer里的内容全部发送成功,然后一次性清理,还是发送成功一部分清理一部分? 看了置顶的700问题和回复,几点疑问: 对于一个查询,执行器拿到的所有结果,如果可以一次性放入net_buffer, 对于执行器来说是不是意味着“全都写出去了”,也就不会有 sending to client 状态? 只有当查询的结果,不能够全部放入net_buffer,需要等net_buffer里的内容清空后再继续放入后续的结果,这时候状态才是显示 sending to client ? 当查询结果可以全部放入net_buffer, 执行器也不管 net_buffer是否发送给 socket send buffer,都认为执行完了 ? 是不是这么理解? 对buffer pool,当通过LRU 淘汰数据页的时候,如果此时该页的内容是新的(也就是磁盘上的内容是老的),是不是需要强制先走一个刷脏页的流程,等脏页刷完了,然后才能淘汰该数据页?
    展开

    作者回复: 1. “是一行一行的扔给socket send buffer,还是把net_buffer 里的内容一下子全部扔给 socket send buffer ?” ---- net_buffer写满,一起发,然后清空net_buffer,组装下一批 。好问题 2. 跟上一个问题同一个答案; 3. “对于一个查询,执行器拿到的所有结果,如果可以一次性放入net_buffer, 对于执行器来说是不是意味着“全都写出去了”,也就不会有 sending to client 状态?” ----是的 4. 是的 5. 对,这个就是我们其他文章中介绍的,“带着邻居节点一起刷”的那个阶段。

    共 6 条评论
    61
  • XXL
    2019-02-14
    请教老师一个问题, 之前在开发工程中实际有碰到这样的业务,批量从MySQL中查询大量数据,每次通过限制起始+limit数量的来分批次查询,后来有同事推荐使用MySQL JDBC中的fetchSize()方法,不做分页通过一次大查询然后客户端流式读取来批量查询数据,这个内部原理是否就是文中所说的使用了mysql_use_result接口读一行处理一行实现的流式?或者也是mysql_store_result方式客户端边缓存边处理?请老师指教
    展开

    作者回复: 对,这种一般就是用mysql_use_result 各有优劣吧 一次性取的好处是,对服务端只全表,只扫描一遍;坏处是可能会出现大事务。 一般更常见的做法是,分批取,然后每一批拿到最大的一个id(主键值) 下一批查询的时候用 where Id > N 这种写法 好问题

    共 2 条评论
    53
  • Leon📷
    2019-01-30
    如果客户端读结果不及时,会堵住 MySQL 的查询过程,但是不会把内存打爆。这个是指客户端的tcp滑动窗口处理没有及时确认,导致server端的网络协议栈没有多余的空间可以发送数据,导致server的处理线程停止从db读取数据发送给client,是这样理解吗

    作者回复: 对的

    46
  • 清风
    2019-03-30
    net_buffer 应该是针对每个请求线程单独分配的,还是共享net_buffer . 我的理解应该是每个线程一块。mysql 可以根据最大请求连接数,能够算出来mysql 使用net_buffer 的总大小。同时如果mysql 占用的内存不大,也将影响到Mysql 能够处理连接连接数的大小。 不知道这种猜测是否准确。 后面那个改进型的LRU 算法真的非常好,就跟JVM 中年轻带 老年代的内存区域划分和淘汰机制一样。在做系统设计的时候可以把这种设计应用一下。

    作者回复: 你的理解是对的,每个线程(session)一个

    35
  • 老杨同志
    2019-01-28
    本身是研发没过这种经历。猜一种吧 如果客户端A性能慢,迟迟不去读取socket receive buffer,server端就不能发送,此时如果客户端A要读取的数据被其他线程频繁update,由于mvcc的实现,这个变更会记录到undo log,大量的日志会不会使io飙升?可能比较极端才会吧。如果此时客户端性能恢复,服务端要读取最新数据,并通过undo log计算较早的版本,是不是要也占用大量的cpu资源或者io资源?谢谢老师
    展开

    作者回复: 👍 再考虑下都是update的情况 😆

    共 3 条评论
    27
  • Zzz
    2019-01-28
    林老师,有几个问题想请教以下: 1、哪种查询语句下MySQL 是“边读边发的”的呢?对于order by这种语句肯定是需要先全部拿到内存再做排序处理最后返回结果。 2、MySQL是怎么判断出可以“边读边发的”,是不是看下语句是否带order by这种关键字? 3、我有办法知道该执行语句是否“边读边发的”吗?
    展开

    作者回复: 这三个问题其实是同一个 “边读边发”的意思是,算出来的结果才能发 像order by,得先排序得到结果,然后才发出去,如果读了数据直接发,那肯定不行,那是错误的结果。 所以要排序了以后再发,这时候就需要中间数据结构,sort buffer

    共 6 条评论
    21
  • 冰点18
    2019-04-01
    InnoDB改进的LRU算法,如果遇到连续两次的全表扫描,会不会就把young区的3/5给覆盖掉了?因为两次扫描时间间隔会超过一秒?

    作者回复: 会的

    共 4 条评论
    17
  • ipofss
    2020-03-16
    MySQL是“边读边发”的,所以对于一个大查询,不会在server层把数据库内存打爆。 而对于innodb内部,也使用了改进的LRU算法,去使用内存,所以也不会把内存打爆。 老师,有个问题: 既然数据是“边读边发”的,对于一个读请求,如果时间太长了,而没有处理完,另外一个写请求进来了,如何保证前面的读请求不会读到脏数据? 我的理解是MVCC控制的,只去读取当时的数据,即使后来进行了数据的增、删、改,但是读的时候,只去读取当时的那个版本。
    展开

    作者回复: 理解正确的👌

    12
  • 2019-08-04
    用一个小勺子怎么吃完一碗米,想必大家都会,哈哈。这个和边读边发异曲同工呀!

    作者回复: 你这个例子不错😆

    共 2 条评论
    10
  • 克劳德
    2019-01-28
    最近系统出现了由于查询大量数据而导致服务不可用的情况,当时第一反应是数据库内存打满了,后来发现数据库正常,应用服务因为OOM挂掉了,虽然这个问题解决了,但一直担心如果应用服务并发这样的查询语句,MySQL是否也会OOM。所以说今天这篇文章真是太及时了。 一直有一个疑问,我个人理解用户进程挂掉的根本原因几乎都是来自内存(访问非法地址或者OOM等)。既然MySQL在查询大量数据时不会导致OOM,在连接数和内存大小方面如果参数设置合理应该也不会导致OOM,那还有什么情况可以使MySQL挂掉?
    展开

    作者回复: 一般我们说“MySQL挂掉”,大多数情况下就是响应慢了; 如果说重启的话, 有一种是InnoDB 读 io迟迟不返回,会自己重启; 还有是innodb_buffer_pool_size 设置太大,再加上server层使用的内存,导致内存超过系统上限被oom。我们说一个大查询不会打爆,但是如果很多并发查询,还是可能的。

    10
  • 几近虚年
    2019-02-20
    老师,看了课文和留言,有个问题有点懵。 Sending to client 状态,到底是体现了服务端的网络栈 socket receive buffer 写满了(客户端未及时读取),还是 net_buffer 满了,还有查询结果没有写入到 net_buffer 中?

    作者回复: 网络栈 socket receive buffer 写满了

    共 7 条评论
    8
  • zzz2
    2019-02-13
    老师 ,请问mysql内存命中率和缓存命中率qcache hits是什么关系?

    作者回复: qcache hits说的就是查询缓存命中率吧 一般我们说内存命中率,一般是指buffer pool命中率

    共 2 条评论
    7
  • SICUN
    2019-01-29
    老师,您好,有两个问题麻烦解惑一下 1.扫描200G的表时数据会先放到InnoDB buffer pool,然后发送时在读取到net_buffer吗? 2.如果是的话,异常情况导致socket send buffer被写满,是不是会出现InnoDB buffer中的某一页有可能出现读取后面的行时,超过1s,而被放到yong区域的情况? 不知道这样表述或者理解的对吗

    作者回复: 1. 是 ,但是也不是“全部放到buffer pool以后”才发,读的时候是一个page 一个page 地读的 2. 会,好在这个是“某一页”而已,量不大。 好问题 很好的思考

    7
  • 天使梦泪
    2019-01-28
    老师,我有个问题不明白,mysql从缓存中取数据,缓存里的数据是怎么实现可以保存一段时间的?

    作者回复: “保存一段时间”是啥意思,LRU算法不是按照时间的哈,如果没人来淘汰,是可以一直保存的。

    7
  • 如明如月
    2019-01-28
    之前有特殊功能需要从主要业务库拉取指定范围的数据到另外同一个库的其他数据表的动作(insert into xxxxx select xxx from xxx 这种操作)数据量在万级或者十万级,对于这种操作,和本文讲的应该有些不同吧?能否帮分析一下这种场景的大致情况呢?或者有什么好的建议吗?

    作者回复: 嗯,这个不会返回结果到客户端,所以网络上不会有问题 引擎内部的扫描机制是差不多的 唯一不同是这个过程可能对原表有行锁(如果设置的是RR) 万或者十万还好,是小数据,可以考虑拿到客户端再写回去,避免锁的问题

    7
  • 00江
    2019-01-28
    文中提到: 服务端是边读边发的 即服务端读取发送,读取发送,重复这个过程,那么为什么会出现客户端不能接受结果呢( 由于客户端压力太大,迟迟不能接收结果)

    作者回复: 就是客户端不去读 比如客户端压力很大,cpu没有轮转不到; 或者读完一行数据后,又去读别的系统(比如搜索系统),和类似的耗时操作

    共 2 条评论
    7
  • 尘封
    2019-01-28
    如果一行数据超过了net buffer length的默认值16KB会如何?

    作者回复: 满16k就发给socket send buffer

    共 5 条评论
    7
  • Ryoma
    2019-01-28
    有两个问题: 0:MySQL 中的新生代和老生代的名字这么反人类的么 1:我在使用show engine innodb status看Buffer Pool时,发现Buffer Pool有8个(0~8),请问老师这个是什么策略呢?

    作者回复: 0 😆 1. 搜一下 innodb_buffer_pool_instances 这个参数的解释哈

    6