47 | SSD硬盘(下):如何完成性能优化的KPI?
下载APP
关闭
渠道合作
推荐作者
47 | SSD硬盘(下):如何完成性能优化的KPI?
2019-08-14 徐文浩 来自北京
《深入浅出计算机组成原理》
课程介绍
讲述:徐文浩
时长12:19大小11.28M
如果你平时用的是 Windows 电脑,你会发现,用了 SSD 的系统盘,就不能用磁盘碎片整理功能。这是因为,一旦主动去运行磁盘碎片整理功能,就会发生一次块的擦除,对应块的寿命就少了一点点。这个 SSD 的擦除寿命的问题,不仅会影响像磁盘碎片整理这样的功能,其实也很影响我们的日常使用。
我们的操作系统上,并没有 SSD 硬盘上各个块目前已经擦写的情况和寿命,所以它对待 SSD 硬盘和普通的机械硬盘没有什么区别。
我们日常使用 PC 进行软件开发的时候,会先在硬盘上装上操作系统和常用软件,比如 Office,或者工程师们会装上 VS Code、WebStorm 这样的集成开发环境。这些软件所在的块,写入一次之后,就不太会擦除了,所以就只有读的需求。
一旦开始开发,我们就会不断添加新的代码文件,还会不断修改已经有的代码文件。因为 SSD 硬盘没有覆写(Override)的功能,所以,这个过程中,其实我们是在反复地写入新的文件,然后再把原来的文件标记成逻辑上删除的状态。等 SSD 里面空的块少了,我们会用“垃圾回收”的方式,进行擦除。这样,我们的擦除会反复发生在这些用来存放数据的地方。
有一天,这些块的擦除次数到了,变成了坏块。但是,我们安装操作系统和软件的地方还没有坏,而这块硬盘的可以用的容量却变小了。
磨损均衡、TRIM 和写入放大效应
FTL 和磨损均衡
那么,我们有没有什么办法,不让这些坏块那么早就出现呢?我们能不能,匀出一些存放操作系统的块的擦写次数,给到这些存放数据的地方呢?
相信你一定想到了,其实我们要的就是想一个办法,让 SSD 硬盘各个块的擦除次数,均匀分摊到各个块上。这个策略呢,就叫作磨损均衡(Wear-Leveling)。实现这个技术的核心办法,和我们前面讲过的虚拟内存一样,就是添加一个间接层。这个间接层,就是我们上一讲给你卖的那个关子,就是 FTL 这个闪存转换层。
就像在管理内存的时候,我们通过一个页表映射虚拟内存页和物理页一样,在 FTL 里面,存放了逻辑块地址(Logical Block Address,简称 LBA)到物理块地址(Physical Block Address,简称 PBA)的映射。
操作系统访问的硬盘地址,其实都是逻辑地址。只有通过 FTL 转换之后,才会变成实际的物理地址,找到对应的块进行访问。操作系统本身,不需要去考虑块的磨损程度,只要和操作机械硬盘一样来读写数据就好了。
操作系统所有对于 SSD 硬盘的读写请求,都要经过 FTL。FTL 里面又有逻辑块对应的物理块,所以 FTL 能够记录下来,每个物理块被擦写的次数。如果一个物理块被擦写的次数多了,FTL 就可以将这个物理块,挪到一个擦写次数少的物理块上。但是,逻辑块不用变,操作系统也不需要知道这个变化。
这也是我们在设计大型系统中的一个典型思路,也就是各层之间是隔离的,操作系统不需要考虑底层的硬件是什么,完全交由硬件的控制电路里面的 FTL,来管理对于实际物理硬件的写入。
TRIM 指令的支持
不过,操作系统不去关心实际底层的硬件是什么,在 SSD 硬盘的使用上,也会带来一个问题。这个问题就是,操作系统的逻辑层和 SSD 的逻辑层里的块状态,是不匹配的。
我们在操作系统里面去删除一个文件,其实并没有真的在物理层面去删除这个文件,只是在文件系统里面,把对应的 inode 里面的元信息清理掉,这代表这个 inode 还可以继续使用,可以写入新的数据。这个时候,实际物理层面的对应的存储空间,在操作系统里面被标记成可以写入了。
所以,其实我们日常的文件删除,都只是一个操作系统层面的逻辑删除。这也是为什么,很多时候我们不小心删除了对应的文件,我们可以通过各种恢复软件,把数据找回来。同样的,这也是为什么,如果我们想要删除干净数据,需要用各种“文件粉碎”的功能才行。
这个删除的逻辑在机械硬盘层面没有问题,因为文件被标记成可以写入,后续的写入可以直接覆写这个位置。但是,在 SSD 硬盘上就不一样了。我在这里放了一张详细的示意图。我们下面一起来看看具体是怎么回事儿。
一开始,操作系统里面有好几个文件,不同的文件我用不同的颜色标记出来了。下面的 SSD 的逻辑块里面占用的页,我们也用同样的颜色标记出来文件占用的对应页。
当我们在操作系统里面,删除掉一个刚刚下载的文件,比如标记成黄色 openjdk.exe 这样一个 jdk 的安装文件,在操作系统里面,对应的 inode 里面,就没有文件的元信息。
但是,这个时候,我们的 SSD 的逻辑块层面,其实并不知道这个事情。所以在,逻辑块层面,openjdk.exe 仍然是占用了对应的空间。对应的物理页,也仍然被认为是被占用了的。
这个时候,如果我们需要对 SSD 进行垃圾回收操作,openjdk.exe 对应的物理页,仍然要在这个过程中,被搬运到其他的 Block 里面去。只有当操作系统,再在刚才的 inode 里面写入数据的时候,我们才会知道原来的些黄色的页,其实都已经没有用了,我们才会把它标记成废弃掉。
所以,在使用 SSD 的硬盘情况下,你会发现,操作系统对于文件的删除,SSD 硬盘其实并不知道。这就导致,我们为了磨损均衡,很多时候在都在搬运很多已经删除了的数据。这就会产生很多不必要的数据读写和擦除,既消耗了 SSD 的性能,也缩短了 SSD 的使用寿命。
为了解决这个问题,现在的操作系统和 SSD 的主控芯片,都支持 TRIM 命令。这个命令可以在文件被删除的时候,让操作系统去通知 SSD 硬盘,对应的逻辑块已经标记成已删除了。现在的 SSD 硬盘都已经支持了 TRIM 命令。无论是 Linux、Windows 还是 MacOS,这些操作系统也都已经支持了 TRIM 命令了。
写入放大
其实,TRIM 命令的发明,也反应了一个使用 SSD 硬盘的问题,那就是,SSD 硬盘容易越用越慢。
当 SSD 硬盘的存储空间被占用得越来越多,每一次写入新数据,我们都可能没有足够的空白。我们可能不得不去进行垃圾回收,合并一些块里面的页,然后再擦除掉一些页,才能匀出一些空间来。
这个时候,从应用层或者操作系统层面来看,我们可能只是写入了一个 4KB 或者 4MB 的数据。但是,实际通过 FTL 之后,我们可能要去搬运 8MB、16MB 甚至更多的数据。
我们通过“实际的闪存写入的数据量 / 系统通过 FTL 写入的数据量 = 写入放大”,可以得到,写入放大的倍数越多,意味着实际的 SSD 性能也就越差,会远远比不上实际 SSD 硬盘标称的指标。
而解决写入放大,需要我们在后台定时进行垃圾回收,在硬盘比较空闲的时候,就把搬运数据、擦除数据、留出空白的块的工作做完,而不是等实际数据写入的时候,再进行这样的操作。
AeroSpike:如何最大化 SSD 的使用效率?
讲到这里,相信你也发现了,想要把 SSD 硬盘用好,其实没有那么简单。如果我们只是简单地拿一块 SSD 硬盘替换掉原来的 HDD 硬盘,而不是从应用层面考虑任何 SSD 硬盘特性的话,我们多半还是没法获得想要的性能提升。
不过,既然清楚了 SSD 硬盘的各种特性,我们就可以依据这些特性,来设计我们的应用。接下来,我就带你一起看一看,AeroSpike 这个专门针对 SSD 硬盘特性设计的 Key-Value 数据库(键值对数据库),是怎么利用这些物理特性的。
首先,AeroSpike 操作 SSD 硬盘,并没有通过操作系统的文件系统。而是直接操作 SSD 里面的块和页。因为操作系统里面的文件系统,对于 KV 数据库来说,只是让我们多了一层间接层,只会降低性能,对我们没有什么实际的作用。
其次,AeroSpike 在读写数据的时候,做了两个优化。在写入数据的时候,AeroSpike 尽可能去写一个较大的数据块,而不是频繁地去写很多小的数据块。这样,硬盘就不太容易频繁出现磁盘碎片。并且,一次性写入一个大的数据块,也更容易利用好顺序写入的性能优势。AeroSpike 写入的一个数据块,是 128KB,远比一个页的 4KB 要大得多。
另外,在读取数据的时候,AeroSpike 倒是可以读取 512 字节(Bytes)这样的小数据。因为 SSD 的随机读取性能很好,也不像写入数据那样有擦除寿命问题。而且,很多时候我们读取的数据是键值对里面的值的数据,这些数据要在网络上传输。如果一次性必须读出比较大的数据,就会导致我们的网络带宽不够用。
因为 AeroSpike 是一个对于响应时间要求很高的实时 KV 数据库,如果出现了严重的写放大效应,会导致写入数据的响应时间大幅度变长。所以 AeroSpike 做了这样几个动作:
第一个是持续地进行磁盘碎片整理。AeroSpike 用了所谓的高水位(High Watermark)算法。其实这个算法很简单,就是一旦一个物理块里面的数据碎片超过 50%,就把这个物理块搬运压缩,然后进行数据擦除,确保磁盘始终有足够的空间可以写入。
第二个是在 AeroSpike 给出的最佳实践中,为了保障数据库的性能,建议你只用到 SSD 硬盘标定容量的一半。也就是说,我们人为地给 SSD 硬盘预留了 50% 的预留空间,以确保 SSD 硬盘的写放大效应尽可能小,不会影响数据库的访问性能。
正是因为做了这种种的优化,在 NoSQL 数据库刚刚兴起的时候,AeroSpike 的性能把 Cassandra、MongoDB 这些数据库远远甩在身后,和这些数据库之间的性能差距,有时候会到达一个数量级。这也让 AeroSpike 成为了当时高性能 KV 数据库的标杆。你可以看一看 InfoQ 出的这个Benchmark,里面有 2013 年的时候,这几个 NoSQL 数据库巨大的性能差异。
总结延伸
好了,现在让我们一起来总结一下今天的内容。
因为 SSD 硬盘的使用寿命,受限于块的擦除次数,所以我们需要通过一个磨损均衡的策略,来管理 SSD 硬盘的各个块的擦除次数。我们通过在逻辑块地址和物理块地址之间,引入 FTL 这个映射层,使得操作系统无需关心物理块的擦写次数,而是由 FTL 里的软件算法,来协调到底每一次写入应该磨损哪一块。
除了磨损均衡之外,操作系统和 SSD 硬件的特性还有一个不匹配的地方。那就是,操作系统在删除数据的时候,并没有真的删除物理层面的数据,而只是修改了 inode 里面的数据。这个“伪删除”,使得 SSD 硬盘在逻辑和物理层面,都没有意识到有些块其实已经被删除了。这就导致在垃圾回收的时候,会浪费很多不必要的读写资源。
SSD 这个需要进行垃圾回收的特性,使得我们在写入数据的时候,会遇到写入放大。明明我们只是写入了 4MB 的数据,可能在 SSD 的硬件层面,实际写入了 8MB、16MB 乃至更多的数据。
针对这些特性,AeroSpike,这个专门针对 SSD 硬盘特性的 KV 数据库,设计了很多的优化点,包括跳过文件系统直写硬盘、写大块读小块、用高水位算法持续进行磁盘碎片整理,以及只使用 SSD 硬盘的一半空间。这些策略,使得 AeroSpike 的性能,在早年间远远超过了 Cassandra 等其他 NoSQL 数据库。
可以看到,针对硬件特性设计的软件,才能最大化发挥我们的硬件性能。
推荐阅读
如果你想要基于 SSD 硬盘本身的特性来设计开发你的系统,我推荐你去读一读 AeroSpike 的这个PPT。AeroSpike 是市面上最优秀的 KV 数据库之一,通过深入地利用了 SSD 本身的硬件特性,最大化提升了作为一个 KV 数据库的性能。真正在进行系统软件开发的时候,了解硬件是必不可少的一个环节。
课后思考
在 SSD 硬盘的价格大幅度下降了之后,LFS,也就是 Log-Structured File System,在业界出现了第二春。你可以去了解一下什么是 LFS,以及为什么 LFS 特别适合 SSD 硬盘。
欢迎在留言区分享你了解到的信息,和大家一起交流。如果有收获,你可以把这篇文章分享给你的朋友。
分享给需要的人,Ta购买本课程,你将得20元
生成海报并分享
赞 29
提建议
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
上一篇
46 | SSD硬盘(上):如何完成性能优化的KPI?
下一篇
48 | DMA:为什么Kafka这么快?
精选留言(26)
- ヾ(◍°∇°◍)ノ゙2019-08-14类似Kafka hbase leveldb 这些都是先写log,标记然后异步整理的系统都是lfs吧。适合ssd的原因,这些系统顺序写,可以设置不删数据,或者异步删除数据,减少了磁盘被频繁擦除问题
作者回复: 👍 这些数据库的确都是LFS的思路。
37 - 许童童2019-08-14LFS文件系统的设计木主要是为了解决以前文件系统所存在的两个问题:随机输入输出的性能和序列输入输出的性能相差很大;还有就是磁盘搜索和旋转延迟比较大。 LFS文件系统的主要算法就是首先把所有的更新(包括元数据)缓存在内存中的成为segment的单位中。当segment填满之后,里面的数据就写入到磁盘中未使用的地方。 特别要注意的是:LFS并不会覆写已有的数据,而是把segment中的数据写入到磁盘中新的位置。展开
作者回复: 👍有很多数据库系统为了性能也都借鉴了LFS的思路。
25 - 有铭2019-08-14AeroSpike为什么现在的受欢迎程度不如Redis?
作者回复: 有铭同学, 你好,其实AeroSpike据我所知在国内外应用都很普遍了。没有Redis火的核心原因我觉得是因为开源得晚了。 另外,就是对于大部分数据量没有那么大的创业公司,用内存作为缓存,存储空间也就够了,那用Redis也就足够了,暂时还用不上AeroSpike。
16 - 古夜2019-09-29所以FTL到底是系统层面的还是SSD层面的?如果是后者和文章就说不通了
作者回复: 古夜同学,你好, FTL是在SSD的硬件的控制器里面的,也就是所谓的主控芯片,不是操作系统层面的。
9 - 明翼2019-08-17看了这个文档都想把我 的ssd换回HDD硬盘哈哈,我上面装的一些软件比如qq,整天都再写磁盘。
作者回复: 这倒大可不必,日常使用其实SSD寿命是足够的,不过重要数据备份最好是云+NAS
共 3 条评论7 - benxiong2020-08-12我真傻,几乎每周都会手动去整理硬盘,包括C盘系统盘。我PC是 128G固态+1T机械。这样估计一下,用不了几年我电脑就要换固态了。共 9 条评论4
- 2019-08-18请问:对于ssd硬盘上面文件内容的修改是一个什么样的过程?既然不能覆写,那是不是只能重新分配一个页写入修改后的数据?但这样又要修改inode。。。
作者回复: 是的,不过这个不是通过改inode,而是在FTL这里处理掉的,就是逻辑块和物理块的映射层面可以处理掉。
4 - fcb的鱼2020-02-11问下,其实我们日常的文件删除,都只是一个操作系统层面的逻辑删除。对于HDD来说,是不是没有物理删除一说,只需要用新的数据覆盖已经删除数据的这块地方而已;但是对于SSD,就必须先把删除数据的这块地方进行擦除才能写入新的数据吧?
作者回复: fcb的鱼同学, 你好,是的。有些系统上会装一些“文件粉碎”的软件,在HDD是那个可以把对应的数据进行实际覆写。
3 - allen2019-08-19怪不得我的Mac越用越慢,想要电脑用的久,还是要买大容量SSD
作者回复: 👍现在SSD硬盘也便宜很多了。
3 - Linuxer2019-08-14请问怎么启用, FTL、TRIM
作者回复: 现在的SSD你买来以后自己内部有FTL的硬件,而且默认是做了TRIM的,所以不需要担心啦
共 2 条评论3 - JRTx2020-11-20LFS的思路是先缓存起来,然后再整段写入磁盘。这样就可以充分利用顺序写的优势。2
- brian2020-05-17AeroSpike 为什么可以绕过操作系统直接操作硬盘? 操作系统不是管理所有I/O资源吗?共 1 条评论2
- 成2019-09-17关于存储器我有一个疑问,我们这些硬盘,内存的存储器最终都是存了电子或者磁符号形式的0和1吗?比如拍的一张照片。
作者回复: 成同学, 你好,是的,都是0和1
2 - 板栗饼2020-05-14类似AeroSpike这样,某个物理块超过50%就搬运擦除,应该会增加SSD搬运和擦除次数,减少使用寿命吧共 1 条评论1
- 活的潇洒2019-08-262018年入手一个笔记本、硬盘是PCI Express接口128GB的SSD,速度一下子提升上来了,但是对于SSD为什么快的底层原理还是不知道 day 47天笔记:https://www.cnblogs.com/luoahong/p/11395273.html1
- wahaha2019-08-16Dear teacher, how to get the erase block size of a ssd disk?1
- badandboy2022-10-24 来自广东老师,我们公司目前就是在做个人私有云,其中就用到了ssd, 最开始用了sqlite最为数据库,但是因为写放大的原因,后面一些数据库就改用了leveldb, 听了老师的课,感觉收货很多
- 天王2022-08-24 来自北京总结:ssd擦除次数多了,磁盘用不了,磨损均衡,为了让擦除次数均匀,增加了一层FTL闪存转换层,读取和写入磁盘,都经过FTL,FTL里面记录了逻辑块地址和物理块地址的映射关系,有记录次数,保证分配写入次数均匀。trim指令,机械硬盘的删除和ssd的删除都是逻辑删除,是操作系统里面没了inode信息,只有等到物理地址有新数据写入才会硬盘才知道要删除,ssd要进行删除文件的移动,增加了trim指令,让操作系统告诉ssd文件已经删除。ssd随着使用,空闲空间越来越少,为了写入一块数据,可能要整理多个块,这个可以放在空闲的时候去做。AeroSpike为了充分利用ssd,有几个优化,直接读写磁盘块,往大的磁盘块写数据,频繁回收整理,保证ssd磁盘空间率大于50%展开
- 小杰2022-06-02看了下LFS,已segment为单位管理,包括写、读和垃圾回收。写操作是当内存中的数据超过段的大小之后,将会一次性的写入到空闲的段中,读操作是每一个segment最后会存储一个imap来保存inode索引,而inode保存了data block的索引。垃圾回收会将各种旧的block整理成新的段,然后将其删除。此过程与上一讲的ssd特性不谋而合。
- 小袁2022-02-09不是说FTL层负责均衡磨损,上层只能看到逻辑块地址么?AeroSpike是怎么知道物理块有碎片?