极客时间已完结课程限时免费阅读

31 | 误删数据后除了跑路,还能怎么办?

31 | 误删数据后除了跑路,还能怎么办?-极客时间

31 | 误删数据后除了跑路,还能怎么办?

讲述:林晓斌

时长15:31大小14.18M

今天我要和你讨论的是一个沉重的话题:误删数据。
在前面几篇文章中,我们介绍了 MySQL 的高可用架构。当然,传统的高可用架构是不能预防误删数据的,因为主库的一个 drop table 命令,会通过 binlog 传给所有从库和级联从库,进而导致整个集群的实例都会执行这个命令。
虽然我们之前遇到的大多数的数据被删,都是运维同学或者 DBA 背锅的。但实际上,只要有数据操作权限的同学,都有可能踩到误删数据这条线。
今天我们就来聊聊误删数据前后,我们可以做些什么,减少误删数据的风险,和由误删数据带来的损失。
为了找到解决误删数据的更高效的方法,我们需要先对和 MySQL 相关的误删数据,做下分类:
使用 delete 语句误删数据行;
使用 drop table 或者 truncate table 语句误删数据表;
使用 drop database 语句误删数据库;
使用 rm 命令误删整个 MySQL 实例。

误删行

第 24 篇文章中,我们提到如果是使用 delete 语句误删了数据行,可以用 Flashback 工具通过闪回把数据恢复回来。
Flashback 恢复数据的原理,是修改 binlog 的内容,拿回原库重放。而能够使用这个方案的前提是,需要确保 binlog_format=row 和 binlog_row_image=FULL。
具体恢复数据时,对单个事务做如下处理:
对于 insert 语句,对应的 binlog event 类型是 Write_rows event,把它改成 Delete_rows event 即可;
同理,对于 delete 语句,也是将 Delete_rows event 改为 Write_rows event;
而如果是 Update_rows 的话,binlog 里面记录了数据行修改前和修改后的值,对调这两行的位置即可。
如果误操作不是一个,而是多个,会怎么样呢?比如下面三个事务:
(A)delete ...
(B)insert ...
(C)update ...
现在要把数据库恢复回这三个事务操作之前的状态,用 Flashback 工具解析 binlog 后,写回主库的命令是:
(reverse C)update ...
(reverse B)delete ...
(reverse A)insert ...
也就是说,如果误删数据涉及到了多个事务的话,需要将事务的顺序调过来再执行。
需要说明的是,我不建议你直接在主库上执行这些操作。
恢复数据比较安全的做法,是恢复出一个备份,或者找一个从库作为临时库,在这个临时库上执行这些操作,然后再将确认过的临时库的数据,恢复回主库。
为什么要这么做呢?
这是因为,一个在执行线上逻辑的主库,数据状态的变更往往是有关联的。可能由于发现数据问题的时间晚了一点儿,就导致已经在之前误操作的基础上,业务代码逻辑又继续修改了其他数据。所以,如果这时候单独恢复这几行数据,而又未经确认的话,就可能会出现对数据的二次破坏。
当然,我们不止要说误删数据的事后处理办法,更重要是要做到事前预防。我有以下两个建议:
把 sql_safe_updates 参数设置为 on。这样一来,如果我们忘记在 delete 或者 update 语句中写 where 条件,或者 where 条件里面没有包含索引字段的话,这条语句的执行就会报错。
代码上线前,必须经过 SQL 审计。
你可能会说,设置了 sql_safe_updates=on,如果我真的要把一个小表的数据全部删掉,应该怎么办呢?
如果你确定这个删除操作没问题的话,可以在 delete 语句中加上 where 条件,比如 where id>=0。
但是,delete 全表是很慢的,需要生成回滚日志、写 redo、写 binlog。所以,从性能角度考虑,你应该优先考虑使用 truncate table 或者 drop table 命令。
使用 delete 命令删除的数据,你还可以用 Flashback 来恢复。而使用 truncate /drop table 和 drop database 命令删除的数据,就没办法通过 Flashback 来恢复了。为什么呢?
这是因为,即使我们配置了 binlog_format=row,执行这三个命令时,记录的 binlog 还是 statement 格式。binlog 里面就只有一个 truncate/drop 语句,这些信息是恢复不出数据的。
那么,如果我们真的是使用这几条命令误删数据了,又该怎么办呢?

误删库 / 表

这种情况下,要想恢复数据,就需要使用全量备份,加增量日志的方式了。这个方案要求线上有定期的全量备份,并且实时备份 binlog。
在这两个条件都具备的情况下,假如有人中午 12 点误删了一个库,恢复数据的流程如下:
取最近一次全量备份,假设这个库是一天一备,上次备份是当天 0 点;
用备份恢复出一个临时库;
从日志备份里面,取出凌晨 0 点之后的日志;
把这些日志,除了误删除数据的语句外,全部应用到临时库。
这个流程的示意图如下所示:
图 1 数据恢复流程 -mysqlbinlog 方法
关于这个过程,我需要和你说明如下几点:
为了加速数据恢复,如果这个临时库上有多个数据库,你可以在使用 mysqlbinlog 命令时,加上一个–database 参数,用来指定误删表所在的库。这样,就避免了在恢复数据时还要应用其他库日志的情况。
在应用日志的时候,需要跳过 12 点误操作的那个语句的 binlog:
如果原实例没有使用 GTID 模式,只能在应用到包含 12 点的 binlog 文件的时候,先用–stop-position 参数执行到误操作之前的日志,然后再用–start-position 从误操作之后的日志继续执行;
如果实例使用了 GTID 模式,就方便多了。假设误操作命令的 GTID 是 gtid1,那么只需要执行 set gtid_next=gtid1;begin;commit; 先把这个 GTID 加到临时实例的 GTID 集合,之后按顺序执行 binlog 的时候,就会自动跳过误操作的语句。
不过,即使这样,使用 mysqlbinlog 方法恢复数据还是不够快,主要原因有两个:
如果是误删表,最好就是只恢复出这张表,也就是只重放这张表的操作,但是 mysqlbinlog 工具并不能指定只解析一个表的日志;
用 mysqlbinlog 解析出日志应用,应用日志的过程就只能是单线程。我们在第 26 篇文章中介绍的那些并行复制的方法,在这里都用不上。
一种加速的方法是,在用备份恢复出临时实例之后,将这个临时实例设置成线上备库的从库,这样:
在 start slave 之前,先通过执行
change replication filter replicate_do_table = (tbl_name) 命令,就可以让临时库只同步误操作的表;
这样做也可以用上并行复制技术,来加速整个数据恢复过程。
这个过程的示意图如下所示。
图 2 数据恢复流程 -master-slave 方法
可以看到,图中 binlog 备份系统到线上备库有一条虚线,是指如果由于时间太久,备库上已经删除了临时实例需要的 binlog 的话,我们可以从 binlog 备份系统中找到需要的 binlog,再放回备库中。
假设,我们发现当前临时实例需要的 binlog 是从 master.000005 开始的,但是在备库上执行 show binlogs 显示的最小的 binlog 文件是 master.000007,意味着少了两个 binlog 文件。这时,我们就需要去 binlog 备份系统中找到这两个文件。
把之前删掉的 binlog 放回备库的操作步骤,是这样的:
从备份系统下载 master.000005 和 master.000006 这两个文件,放到备库的日志目录下;
打开日志目录下的 master.index 文件,在文件开头加入两行,内容分别是 “./master.000005”和“./master.000006”;
重启备库,目的是要让备库重新识别这两个日志文件;
现在这个备库上就有了临时库需要的所有 binlog 了,建立主备关系,就可以正常同步了。
不论是把 mysqlbinlog 工具解析出的 binlog 文件应用到临时库,还是把临时库接到备库上,这两个方案的共同点是:误删库或者表后,恢复数据的思路主要就是通过备份,再加上应用 binlog 的方式。
也就是说,这两个方案都要求备份系统定期备份全量日志,而且需要确保 binlog 在被从本地删除之前已经做了备份。
但是,一个系统不可能备份无限的日志,你还需要根据成本和磁盘空间资源,设定一个日志保留的天数。如果你的 DBA 团队告诉你,可以保证把某个实例恢复到半个月内的任意时间点,这就表示备份系统保留的日志时间就至少是半个月。
另外,我建议你不论使用上述哪种方式,都要把这个数据恢复功能做成自动化工具,并且经常拿出来演练。为什么这么说呢?
这里的原因,主要包括两个方面:
虽然“发生这种事,大家都不想的”,但是万一出现了误删事件,能够快速恢复数据,将损失降到最小,也应该不用跑路了。
而如果临时再手忙脚乱地手动操作,最后又误操作了,对业务造成了二次伤害,那就说不过去了。

延迟复制备库

虽然我们可以通过利用并行复制来加速恢复数据的过程,但是这个方案仍然存在“恢复时间不可控”的问题。
如果一个库的备份特别大,或者误操作的时间距离上一个全量备份的时间较长,比如一周一备的实例,在备份之后的第 6 天发生误操作,那就需要恢复 6 天的日志,这个恢复时间可能是要按天来计算的。
那么,我们有什么方法可以缩短恢复数据需要的时间呢?
如果有非常核心的业务,不允许太长的恢复时间,我们可以考虑搭建延迟复制的备库。这个功能是 MySQL 5.6 版本引入的。
一般的主备复制结构存在的问题是,如果主库上有个表被误删了,这个命令很快也会被发给所有从库,进而导致所有从库的数据表也都一起被误删了。
延迟复制的备库是一种特殊的备库,通过 CHANGE MASTER TO MASTER_DELAY = N 命令,可以指定这个备库持续保持跟主库有 N 秒的延迟。
比如你把 N 设置为 3600,这就代表了如果主库上有数据被误删了,并且在 1 小时内发现了这个误操作命令,这个命令就还没有在这个延迟复制的备库执行。这时候到这个备库上执行 stop slave,再通过之前介绍的方法,跳过误操作命令,就可以恢复出需要的数据。
这样的话,你就随时可以得到一个,只需要最多再追 1 小时,就可以恢复出数据的临时实例,也就缩短了整个数据恢复需要的时间。

预防误删库 / 表的方法

虽然常在河边走,很难不湿鞋,但终究还是可以找到一些方法来避免的。所以这里,我也会给你一些减少误删操作风险的建议。
第一条建议是,账号分离。这样做的目的是,避免写错命令。比如:
我们只给业务开发同学 DML 权限,而不给 truncate/drop 权限。而如果业务开发人员有 DDL 需求的话,也可以通过开发管理系统得到支持。
即使是 DBA 团队成员,日常也都规定只使用只读账号,必要的时候才使用有更新权限的账号。
第二条建议是,制定操作规范。这样做的目的,是避免写错要删除的表名。比如:
在删除数据表之前,必须先对表做改名操作。然后,观察一段时间,确保对业务无影响以后再删除这张表。
改表名的时候,要求给表名加固定的后缀(比如加 _to_be_deleted),然后删除表的动作必须通过管理系统执行。并且,管理系删除表的时候,只能删除固定后缀的表。

rm 删除数据

其实,对于一个有高可用机制的 MySQL 集群来说,最不怕的就是 rm 删除数据了。只要不是恶意地把整个集群删除,而只是删掉了其中某一个节点的数据的话,HA 系统就会开始工作,选出一个新的主库,从而保证整个集群的正常工作。
这时,你要做的就是在这个节点上把数据恢复回来,再接入整个集群。
当然了,现在不止是 DBA 有自动化系统,SA(系统管理员)也有自动化系统,所以也许一个批量下线机器的操作,会让你整个 MySQL 集群的所有节点都全军覆没。
应对这种情况,我的建议只能是说尽量把你的备份跨机房,或者最好是跨城市保存。

小结

今天,我和你讨论了误删数据的几种可能,以及误删后的处理方法。
但,我要强调的是,预防远比处理的意义来得大。
另外,在 MySQL 的集群方案中,会时不时地用到备份来恢复实例,因此定期检查备份的有效性也很有必要。
如果你是业务开发同学,你可以用 show grants 命令查看账户的权限,如果权限过大,可以建议 DBA 同学给你分配权限低一些的账号;你也可以评估业务的重要性,和 DBA 商量备份的周期、是否有必要创建延迟复制的备库等等。
数据和服务的可靠性不止是运维团队的工作,最终是各个环节一起保障的结果。
今天的课后话题是,回忆下你亲身经历过的误删数据事件吧,你用了什么方法来恢复数据呢?你在这个过程中得到的经验又是什么呢?
你可以把你的经历和经验写在留言区,我会在下一篇文章的末尾选取有趣的评论和你一起讨论。感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一起阅读。

上期问题时间

我在上一篇文章给你留的问题,是关于空表的间隙的定义。
一个空表就只有一个间隙。比如,在空表上执行:
begin;
select * from t where id>1 for update;
这个查询语句加锁的范围就是 next-key lock (-∞, supremum]。
验证方法的话,你可以使用下面的操作序列。你可以在图 4 中看到显示的结果。
图 3 复现空表的 next-key lock
图 4 show engine innodb status 部分结果
评论区留言点赞板:
@老杨同志 给出了正确的分析和 SQL 语句验证方法;
@库淘淘 指出了 show engine innodb status 验证结论。
赞这些思考和反馈。
分享给需要的人,Ta购买本课程,你将得20
生成海报并分享

赞 47

提建议

上一篇
30 | 答疑文章(二):用动态的观点看加锁
下一篇
32 | 为什么还有kill不掉的语句?
unpreview
 写留言

精选留言(56)

  • 苍茫
    置顶
    2019-01-23
    有一次,我维护一张表,需要手动修改大量数据的状态,sql就很多,然后我保存到txt文件中以附件的形式发给部门老大审批,部门老大审批后转发邮件给运维,然后运维这哥们用的是360浏览器,他预览的sql,然后全部复制到客户端执行,但是问题也在这,360浏览器预览的时候由于文本偏长,到了某一条语句只有前半部分的update语句,没有后面的条件,然后就悲剧了。全表的状态都变成同一个。然后我就特别莫名其妙,还被老大批了一顿。说我写的脚本有问题。这锅我可不背,我把脚本在本地备份库跑了一遍又一遍就是没有问题。然后我再去运维哥们那,叫他再复制一下脚本就发现问题了。好在执行脚本前进行了表备份。扩展一下,如果你用谷歌浏览器就不会出现这种问题!发现问题后,立马恢复了数据
    展开

    作者回复: 👍 这个是血泪经验 拷贝文本执行,这个操作还可能存在字符集隐患。 这个事情更深一层逻辑,是你做了创造性的事情,非常优秀👍。 而这个运维同学认为他只是一个”复制粘贴执行的人”, 这种思路下是迟早会出问题的。

    共 10 条评论
    161
  • 無名小卒
    置顶
    2019-01-23
    对生产数据库操作,公司DBA提出的编写脚本方法,个人觉得还是值得分享,虽说可能大部分公司也可能有这样的规范。 修改生产的数据,或者添加索引优化,都要先写好四个脚本:备份脚本、执行脚本、验证脚本和回滚脚本。备份脚本是对需要变更的数据备份到一张表中,固定需要操作的数据行,以便误操作或业务要求进行回滚;执行脚本就是对数据变更的脚本,为防Update错数据,一般连备份表进行Update操作;验证脚本是验证数据变更或影响行数是否达到预期要求效果;回滚脚本就是将数据回滚到修改前的状态。 虽说分四步骤写脚本可能会比较繁琐,但是这能够很大程度避免数据误操作。
    展开

    作者回复: 👍 非常好的经验 如果能够切实执行,即使有出问题,也是可以很快恢复的 把这些脚本当做开发代码来维护,是一个很好的实践

    共 4 条评论
    132
  • Sancho
    2019-07-05
    说说我的故事:一次更新,少了一个条件,结果把全表更新了,用的是pg,当时dba说没发恢复。这是属于一个业务核心表,数据有6000多条。当时业务系统有本地缓存,业务系统的更新会发通知刷新,数据库操作的更新要去业务系统主动刷新。在dba操作完sql,说了影响行数之后,我立刻傻了。赶紧上报老大,技术群里大吼不要刷缓存。我们老大是个老司机,知道dba是指望不上了,立刻在另一个业务系统写了几行代码,然后发布上线。浏览器一个地址下去,内存里的数据全部返回到浏览了。。。
    展开

    作者回复: 这个老大是高手😆

    共 4 条评论
    80
  • 某、人
    2019-01-23
    总结下今天的知识点: 我觉得DBA的最核心的工作就是保证数据的完整性 今天老师也讲到了先要做好预防,预防的话大概是通过这几个点: 1.权限控制与分配(数据库和服务器权限) 2.制作操作规范 3.定期给开发进行培训 4.搭建延迟备库 5.做好sql审计,只要是对线上数据有更改操作的语句(DML和DDL)都需要进行审核 6.做好备份。备份的话又分为两个点. (1)如果数据量比较大,用物理备份xtrabackup。定期对数据库进行全量备份,也可以做增量备份。 (2)如果数据量较少,用mysqldump或者mysqldumper。再利用binlog来恢复或者搭建主从的方式来恢复数据。 定期备份binlog文件也是很有必要的 还需要定期检查备份文件是否可用,如果真的发生了误操作,需要恢复数据的时候,发生备份文件不可用,那就更悲剧了 如果发生了数据删除的操作,又可以从以下几个点来恢复: 1.DML误操作语句造成数据不完整或者丢失。可以通过flashback,不过我们目前用的是美团的myflash,也是一个不错的工具,本质都差不多.都是先解析binlog event,然后在进行反转。把delete反转为insert,insert反转为delete,update前后image对调。所以必须设置binlog_format=row 和 binlog_row_image=full. 切记恢复数据的时候,应该先恢复到临时的实例,然后在恢复回主库上。 2.DDL语句误操作(truncate和drop),由于DDL语句不管binlog_format是row还是statement.在binlog里都只记录语句,不记录image所以恢复起来相对要麻烦得多。只能通过全量备份+应用binlog的方式来恢复数据。一旦数据量比较大,那么恢复时间就特别长, 对业务是个考验。所以就涉及到老师在第二讲提到的问题了,全量备份的周期怎么去选择
    展开

    作者回复: 👍

    共 2 条评论
    53
  • 还一棵树
    2019-01-24
    我遇到过一个线上误truncate表的,最终选择的处理过程如下: 1、创建一个同版本的空mysql实例,建一个名字+结构一模一样的表 2、discard这个表的tablespace 3、从之前的备份集中 innobackupex --apply-log 并记录binlog位置(用innobackupex备份的)。还原后找到误操作表的.ibd文件,copy到新实例对应的位置 4、在之前创建的mysql实例上import tablespace 5、利用mysqlbinlog 处理增量数据 6、最后导出 再导入
    展开

    作者回复: 👍 这基本上是最快的恢复步骤了

    共 4 条评论
    52
  • Knight²º¹⁸
    2019-01-23
    很久之前,升级mongodb,在备份数据文件时,备份了指向数据文件的软连接(当时没注意是软连接),导致在删除数据文件后,再通过备份数据文件恢复数据时找不到文件,这时才发现自己备份的只是一个软连接,最后是通过备份节点才恢复的数据。当时还没自动化运维工具,线上操作也不规范。后来通过 chatrr +i 命令给所有重要的文件增加了 i 权限属性,这样哪怕 root 用户都无法直接删除文件。差点就跑路了?😂😂😂

    作者回复: 后来通过 chatrr +i 命令给所有重要的文件增加了 i 权限属性,这样哪怕 root 用户都无法直接删除文件。 mark

    共 3 条评论
    33
  • 顺哥聊成长
    2019-01-25
    我只想说,作者功力过于深厚了!
    32
  • Long
    2019-01-28
    又到了讲故事(事故)的时候了,历史上遇到过很多次事故。全表误删除,误更新不下于8次,有MySQL 的DB也有memory DB. 有一次同事比较搞笑的是,有一次一张重要的权限控制表更新,由于用的是workbench 界面工具当时写了where条件,但是在选中执行行的时候where条件在第二行,没选中,还在执行前的时候手动把session 级的sql_safe_updates=0了,也没有点开那个autocommit取消的按钮。然后一执行,全表更新了,导致全网只有一个用户可以正常登录。还有其他的误操作,总结历史遇到过的这类问题基本就是几类 1. 登错环境,以为是测试环境,一顿操作猛如虎,一看环境是生产,回头一看,表已经drop了…… 2. sql写的有问题,逻辑错误,或者条件缺失,常见的如不带where;or关键字的逻辑没有用括号括好 3. 还有一些奇葩的,比如where 字段1=字段2写成了字段1+字段2,逻辑等于判断变成了是否为1的判断了,大概率全表更新了。 错误解决大部分都是用备份恢复或者根据错误的逻辑来逻辑恢复。 还有一个,最近在尝试的,就是ibd文件中有坏页,只要一读到那个坏页,就会crash,报错spaceid page no should be多少多少,尝试了copy frm, ibd,ibdata, iblogfile这些表结构,数据文件,数据字典,undo redo 日志,也尝试用了undrop的工具也解析不出来。这个表比较特殊,是一个特殊库,没备份,表没有索引没法通过走索引跳过那个坏页的那些行,现在的状态是,只能用nysqldump恢复一部分数据。 我想通过16进制,自己慢慢找到那个脏写的数据,然后修改一下文件…… 老师有什么比较好的建议吗?或者后面会说到ibd文件的物理结构之类的吗? 感谢
    展开

    作者回复: 感谢你的分享,都是血泪教训。。 我看有几个是用的可视化工具导致的,后面还是尽量用MySQL客户端敲命令吧😆 ibd文件坏页我之前有回答过其他同学的,看下这个 https://weibo.com/1933424965/H3qIu0JYo?from=page_1005051933424965_profile&wvr=6&mod=weibotime

    23
  • __困
    2019-05-12
    不知道老师还在吗,看到这里,恢复出临时库后,怎么应用到主库

    作者回复: 就要看情况了 如果原库是删表,就把临时库里面的表导过去,小表逻辑导,大表可以用“透明表空间机制”物理导; 如果原库是误删了一些行,那只能在临时库里面select数据出来,按照业务的需要去补了

    共 2 条评论
    21
  • 斐波那契
    2020-03-07
    虽然我不是DBA 但是曾经我上过oracle课程 老师讲过一句话----你在数据在 你不在数据依然在
    11
  • 乔纳森
    2019-05-25
    感谢老师的讲解,我也分享一个吧; delete 删除2000w 左右的数据场景, 开发直接自己登mysql服务操作的 1. 导出主键id。到一个文件中 2. 一个循环取id, delete. for id in $( cat id.file) do mysql -hhost -pport -uuser -ppswd -e "delete from t where id=$id"; done 问题出在id.file,是用什么工具导出来的,里面一个id 列头部;内容大概如下 id 3 400 然后就删了全表了,因为这个删全表的时间非常长,在删完后,从库重放时出现了延迟; 还好我们有A--B--C ,主从架构,在C实例上用mydumper 导入和恢复(导入时,会关闭binlog,所以在A和B 上都导入了数据); 假如当时: 1. 有长事务监控的话,就可以及时发现,并杀掉delete 操作,避免悲剧发生 2. 假如知道用ibd 来恢复的话,就可以直接用文件拷贝,被sql 回放快多了 3. 当时还是太年轻了
    展开

    作者回复: 成长了:)

    共 4 条评论
    8
  • 张仕华
    2019-03-28
    图3中 select * from t where id>1 for update 少了 "for update"?
    6
  • #160
    2020-05-08
    现在好多云平台提供托管的mysql实例,我们现在就用的aws托管实例,运维相当于交给了云平台,对于我们业务开发人员来说,能做的也就是crud了,记得有一次不小心清空了一个表的数据,直接在页面上点一点就把表恢复回来了,整个过程就是个黑盒。我觉得对于开发人员来说,该专栏的理论意义大于实践意义,学习其中的思想理念。
    共 1 条评论
    5
  • null
    2019-07-25
    老师,您好! 文章提到:“在用备份恢复出临时实例之后,将这个临时实例设置成线上备库的从库”。 将临时实例设置成线上备库的前提,是备库还未应用主库删除库/表的 binlog 吧? 如果备库同步了主库的 binlog,也把库/表删除了,这时候该怎么做?(在临时库设置 gtid_next 跳过该删除操作么?如果不支持 gtid 又该咋办?) 谢谢老师!
    展开
    共 4 条评论
    5
  • 700
    2019-01-23
    老师,请教。假如我有数据库的物理备份和逻辑备份(mydumper),因为 mydumper 导出的数据是按表名分开存放的,那么表误删数据的时候优先考虑逻辑备份(误删数据表的备份集)+binlog 恢复比物理备份恢复会快点?基于此,我总感觉物理备份只是在要恢复整个实例时才会优先考虑,而恢复整个实例的场景又是比较少的,毕竟一般大家的线上架构至少都是主从模式。所以逻辑备份被物理备份更实用。这种想法算是说得通吗?

    作者回复: 其实是要看表的大小 如果是一个大表,逻辑恢复还是比较慢的,毕竟用物理备份来恢复出实例,相对会快些。 当然如果你已经有了一个成熟系统用逻辑恢复来实现,也不用改它,主要关注一下是否满足SLA就可以了^_^ facebook就是主要用逻辑备份的

    3
  • 运维老胡
    2020-03-22
    个人经历:一年前刚接手线上MySQL维护工作不久,某天线上一台MySQL意外重启导致复制中断,其中新来的DBA就告诉我需要重做从库,大周末的特意跑去公司重做从库,登上从库后没有进行环境的确认,以为只是主备复制,其实是双主复制,结果在从库上直接执行了drop database ,幸亏只删了2个小库,然后想起来有没有可能是双主。后来通过回复全库备份和应用binlog才恢复好被删的2个库的数据。 从中得到经验: 1、操作前必须确认环境。 2、从库断电重启导致复制异常,可以先跳过错误,后续业务低峰期再通过主从复制校验来修复。 3、一定要定期做好备份。
    展开

    作者回复: 血泪经验呀 其实重做从库不应该有“drop database”这种命令 直接在新的目录下重新创建一个新的 旧的从库要删除的时候,先mv到回收站,确认没问题后再rm 文件

    2
  • PengfeiWang
    2019-01-25
    老师,您好,有个问题请教一下: 关于MySQL备份有效性的验证,你有什么好的方法可以推荐吗?目前只能通过不定期的备份恢复来验证。

    作者回复: 大家都是这么做的😆

    共 2 条评论
    2
  • 2019-01-23
    CREATE TABLE `t` ( `id` int(11) NOT NULL, `city` varchar(16) NOT NULL, `name` varchar(16) NOT NULL, `age` int(11) NOT NULL, `addr` varchar(128) DEFAULT NULL, PRIMARY KEY (`id`), KEY `city` (`city`) ) ENGINE=InnoDB; 老师请教您16章的问题,您提到“city、name、age 这三个字段的定义总长度是36”,这个是怎么算出来的呢,varchar(16)是可以保存16个字符,占用了49个字节(utf8),所以我没想明白36是怎么来的。 第二个问题是max_length_for_sort_data参数系统默认是1024,是1024个字节的意思吗? 2019-01-23  作者回复 1. age(11)其实是4个字节哈 2. 对,单位是字节 谢谢老师,不过还是没明白,age是4个字节,city和name分别是49个字节,49+49+4=102字节,36是怎么来的呢?再次感谢
    展开

    作者回复: 哦 抱歉哈,我这边验证的时候默认用的latin1,是16+16+4

    共 3 条评论
    2
  • Cranliu
    2019-01-23
    个人觉得,预防同样很重要,一般的dml操作,我是先ctas要操作的数据,drop/truncate 的时候先逻辑备份。

    作者回复: 对的,备份的意识很重要。 不过“drop/truncate 的时候先逻辑备份”这么做的不多^_^ 主要的原因是逻辑备份可能会对系统有额外消耗。(全表扫描)

    2
  • 青萍之末
    2021-10-28
    只有原理解释,没有环境操作,老实说有点偷懒了。
    1