08 | 网络通信优化之I/O模型:如何解决高并发下I/O瓶颈?
08 | 网络通信优化之I/O模型:如何解决高并发下I/O瓶颈?
讲述:李良
时长14:00大小12.81M
什么是 I/O
1. 字节流
2. 字符流
传统 I/O 的性能问题
1. 多次内存复制
2. 阻塞
如何优化 I/O 操作
1. 使用缓冲区优化读写流操作
2. 使用 DirectBuffer 减少内存复制
3. 避免阻塞,优化 I/O 操作
总结
思考题
赞 12
提建议
精选留言(55)
- ZOU志伟2019-06-19老师,为什么要字符流还是没懂
作者回复: 我们通常在通信时,使用的是字节流FileInputStream来实现数据的传输,你会发现,我们在读取read()和写入write()的时候都是先将字符转成字节码再进行写入操作,同样读取也是类似。如果是中文,在gbk中一般一个中文占用两个字节,如果通过字节流的方式只读取一个字节,是无法转编码为一个中文汉字。 而字符流就是为了解决这种问题,如果用字符流去读取,字符流会根据默认编码一次性的读取一个字符,即若若是gbk编码就会一次读取2个字节。因此字符流是根据字符所占字节大小而决定读取多少字节的。这就是字符流和字节流的本质不同。
共 4 条评论70 - Only now2019-06-06老师能不能讲讲DMA和Channel的区别, DMA需要占用总线, 那么Channel是如何跳过总线向内存传输数据的?
作者回复: 一个设备接口试图通过总线直接向外部设备(磁盘)传送数据时,它会先向CPU发送DMA请求信号。外部设备(磁盘)通过DMA的一种专门接口电路――DMA控制器(DMAC),向CPU提出接管总线控制权的总线请求,CPU收到该信号后,在当前的总线周期结束后,会按DMA信号的优先级和提出DMA请求的先后顺序响应DMA信号。CPU对某个设备接口响应DMA请求时,会让出总线控制权。于是在DMA控制器的管理下,磁盘和存储器直接进行数据交换,而不需CPU干预。数据传送完毕后,设备接口会向CPU发送DMA结束信号,交还总线控制权。 而通道则是在DMA的基础上增加了能执行有限通道指令的I/O控制器,代替CPU管理控制外设。通道有自己的指令系统,是一个协处理器,他实质是一台能够执行有限的输入输出指令,并且有专门通讯传输的通道总线完成控制。
共 3 条评论50 - 张学磊2019-06-06在Linux中,AIO并未真正使用操作系统所提供的异步I/O,它仍然使用poll或epoll,并将API封装为异步I/O的样子,但是其本质仍然是同步非阻塞I/O,加上第三方产品的出现,Java网络编程明显落后,所以没有成为主流
作者回复: 对的,异步I/O模型在Linux内核中没有实现
49 - 皮皮2019-06-06老师,个人觉得本期的内容讲的稍微浅了一点,关于IO的几种常见模型可以配图讲一下的,另外就是linux下的select,poll,epoll的对比应用场景。最重要的目前用的最多的IO多路复用可以深入讲一下的。
作者回复: 你好,这篇I/O性能优化主要是普及NIO对I/O的性能优化。I/O这块的知识点很多,包括IO模型、事件处理模型以及操作系统层的事件驱动,如果都压缩到一讲,由于字数有限,很难讲完整。对于一些童鞋来说,也不好理解。 我将会在后面的一讲中,补充大家提到的一些内容。谢谢你的建议。
27 - 小兵2019-06-07很多知识linux 网络 I/O模型底层原理,零拷贝技术等深入讲一下,毕竟学Java性能调优的学员都是有几年工作经验的, 希望老师后面能专门针对这次io 出个补充,这一讲比较不够深入。
作者回复: 这一讲中提到了DirectBuffer,也就是零拷贝的实现。谢谢你的建议,后面我会补充下几种网络I/O模型的底层原理。
14 - -W.LI-2019-06-20老师好!隔壁的李好双老师说一次普通IO需要要进过六次拷贝。 网卡->内核->临时本地内存->堆内存->临时本地内存->内核->网卡。 directbfuffer下 网卡->内核->本地内存->内核->网卡 ARP下C直接调用 文件->内核->网卡。 李老师说的对么? 本地内存和堆内存都是在用户空间的是么?展开
作者回复: 李老师说的对的
共 6 条评论11 - td9011052019-12-04在少量连接请求的情况下,使用这种方式没有问题,响应速度也很高。但在发生大量连接请求时,就需要创建大量监听线程,这时如果线程没有数据就绪就会被挂起,然后进入阻塞状态。一旦发生线程阻塞,这些线程将会不断地抢夺 CPU 资源,从而导致大量的 CPU 上下文切换,增加系统的性能开销。 后面一句一旦发生线程阻塞,这些线程会不断的抢夺CPU资源,从而导致大量的CPU进行上下文切换,增加系统开销,这一句不是太明白,能解释一下吗?阻塞线程不是不会占用CPU资源吗?展开
作者回复: 阻塞线程在阻塞状态是不会占用CPU资源的,但是会被唤醒争夺CPU资源。操作系统将CPU轮流分配给线程任务,当线程数量越多的时候,当某个线程在规定的时间片运行完之后,会被其他线程抢夺CPU资源,此时会导致上下文切换。抢夺越激烈,上下文切换就越频繁。
共 3 条评论10 - 钱2019-09-07课后思考及问题 1本文核心观点 1-1:JAVA IO操作为啥分为字节流和字符流?我们知道字符到字节必须经过转码,这个过程非常耗时,如果我们不知道编码类型就很容易出现乱码问题。所以 I/O 流提供了一个直接操作字符的接口,方便我们平时对字符进行流操作。 有个疑问,字符流虽然在不知道其编码类型的情况下可以操作,不过一旦需要进行网络传输了,还是必须要知道的? 1-2:一次读取数据的操作流程,如下 用户空间—请求数据—内核空间—请求数据—数据存储设备—响应数据—内核空间—响应数据—用户空间,应用程序从用户空间的数据缓存区中读取数据,数据以字节流的形式流转。这种方式数据经过了两次复制过程,比较耗性能。 1-3:传统IO耗性能的地方主要有两点,一是数据从从存储设备到应用程序中经历了两次复制,二是数据的处理方式是阻塞式的 1-4:NIO快就快在解决了传统IO的两个耗性能的问题,一是减少复制次数,二是数据处理线程不再阻塞,为此增加了缓存区+通道+多路复用选择器+操作系统数据缓存区 对比来看,感觉老师讲的有点凌乱,IO网络通信模型,我在很多的课程上都学过,这个几乎讲到高性能这一块是必讲的,极客时间里有好几个专栏里也都有讲,大概原理还行,不过体系和细致成度一般,可能是篇幅有限吧! 我见过最通俗易懂的讲解就是netty权威指南的李林峰,用了好几章来讲解这一块的内容。 他从IO的历史演进来讲,一个个IO通信模型是怎么来的?前一个有什么问题?后一个基本是为了解决前一个的问题而来的,以及具体是怎么解决的? 磁盘或网络IO由于其内部结构决定和内存、各级缓存、CUP的速度有巨大的鸿沟,写操作系统的大神们和JDK的大神都清楚,所以,他们也都在绞尽脑汁来通过其他方式来尽量的解决这些问题。 希望他们的脑汁没没白绞,真心能明白他们绞尽脑汁后都产生了什么牛逼的方案。 非阻塞、零拷贝、多路复用选择器、Reactor、Preactor、DMA、epoll、通道这些概念有些理解啦有些还没,不过性能优化的原则没变还是那一套。展开
作者回复: 总结的很好,这章后面需要再优化
共 2 条评论9 - 仙道2019-08-16有两个地方理解不了,请老师指点一下。 1.传统io请求数据没有的话就会挂起进入阻塞状态,既然进入了阻塞状态文中为什么还会说会继续强悍cpu。 2,传统io对文件边读边处理,NIO一次性将文件读到缓冲区,就这样的话问什么说NIO要快?我觉得单是读取的时间花费的是一样的
作者回复: 1、阻塞会引起上下文切换,文中强调的是上下文切换; 2、如果能读到则是一样的。在没有bytebuff缓存的情况下,一旦读取数据的SO_RCVBUF满了,将会通知对端TCP协议中的窗口关闭(滑动窗口),将影响TCP发送端,这也就影响到了整个TCP通信的速度。而有了bytebuff,我们可以先将读取的数据缓存在bytebuff中,提高TCP的通信能力。
8 - Haies2019-11-24讲的很精炼,不过有三个问题没明白 1.图2的directbuffer是不是临时直接内存,和文中提到的DirectBuffer应该不是一回事吧。 2.Chanel有自己的处理器,这个何解? 3.传统I/O使用buffer后,是不是处理单位也变成块了,怎么可以优化阻塞的问题呢,不太明白?
作者回复: 1、是通一个directbuffer,是一个临时堆外内存; 2、就是DMA处理器; 3、内存处理比磁盘处理的IO好很多。
共 2 条评论5 - 昨夜的柠檬2020-03-08文中说,多线程阻塞时,会占用大量CPU资源。线程阻塞应该会让出CPU吧?
作者回复: 没有找到相关描述,文中是这样描述的:一旦发生线程阻塞,这些线程将会不断地抢夺 CPU 资源,从而导致大量的 CPU 上下文切换,增加系统的性能开销。 阻塞线程在阻塞状态是不会占用CPU资源的,但是会被唤醒争夺CPU资源。操作系统将CPU轮流分配给线程任务,当线程数量越多的时候,当某个线程在规定的时间片运行完之后,会被其他线程抢夺CPU资源,此时会导致上下文切换。抢夺越激烈,上下文切换就越频繁。
共 2 条评论4 - 张三丰2020-04-07如果单纯使用 Java 堆内存进行数据拷贝,当拷贝的数据量比较大的情况下,Java 堆的 GC 压力会比较大,而使用非堆内存可以减低 GC 的压力。 为何GC压力会比较大呢?只能说是没法回收导致内存泄漏吧。展开
作者回复: 这里说的GC,指的是Minor GC,这里不会导致内存泄漏,会被回收的
2 - 天星之主2019-11-07“DirectBuffe直接将步骤简化为从内核空间复制到外部设备,减少了数据拷贝”,direct buffer申请的非堆内存,只是不受JVM管控,不应该还是用户态的内存吗
作者回复: direct buffer是用户态内存,已更新这一小节
共 3 条评论2 - al-byte2019-06-17我们可以在注册 Channel 时设置该通道为非阻塞,当 Channel 上没有 I/O 操作时,该线程就不会一直等待了,而是会不断轮询所有 Channel,从而避免发生阻塞。 如果一个Channel上I/O耗时很长是不是后续的Channel就被阻塞了?
作者回复: 是的。如果I/O操作时间比较长,我们可以创建新的一个线程来执行I/O操作,避免阻塞Reactor从线程。
2 - 贯通2019-06-16谢谢老师! 我觉得从基础讲起再深入挺好的 有逻辑与层次感, 一上来就是好高深的内容 就会让一半道行没够的同学放弃治疗了。2
- Better me2020-05-24老师在评论中的下面这段话 阻塞线程在阻塞状态是不会占用CPU资源的,但是会被唤醒争夺CPU资源。操作系统将CPU轮流分配给线程任务,当线程数量越多的时候,当某个线程在规定的时间片运行完之后,会被其他线程抢夺CPU资源,此时会导致上下文切换。抢夺越激烈,上下文切换就越频繁。 这里抢夺越激烈,上下文切换越频繁有点不太理解,如果只是单次抢夺操作,最后不都只有一个线程抢夺到CPU从而进行一次上下文切换吗?还是这里是以抢夺资源的这整段时间维度去衡量理解的展开
作者回复: 抢夺资源的整段时间维度去衡量,非自愿的上下文切换会降低线程的CPU使用效率,使得大量时间消耗在寄存器和计数器的存取之间。最直观的是查看非自愿上下文切换次数以及系统的负载。
1 - xaviers2020-04-25老师,有个疑问。 Buffer 可以将文件一次性读入内存再做后续处理,而传统的方式是边读文件边处理数据。 按说边读文件边处理应该更快呀
作者回复: 来回读写,由用户态到内核态的切换耗时,减少用户态和内核态的切换,性能更佳
共 2 条评论1 - 袁林2019-08-07根据 ‘使用 DirectBuffer 减少内存复制’ 这段描述 DirectBuffer 申请的应该是内核的内存,这是如何实现的?unix使用的是哪些系统调用? 还请解答
作者回复: DirectBuffer 是直接内存,这里的减少复制是减少JVM内存到直接内存的复制
1 - 码农Kevin亮2019-08-05请问老师,我理解传统bio之所以慢是因为它要等待数据从磁盘到内核空间再到用户空间,由于经过两次复制数据所以慢。 我没太理解nio是快在哪?只有用户空间直接到磁盘一次的复制?具体是怎么实现的呢?
作者回复: 减少了一次中间拷贝。 Java 堆内存中拷贝到临时的直接内存中,通过临时的直接内存拷贝到内核空间中去,而NIO中的DirectBuffer是直接内存,我们无需再在JVM内存中创建对象,再拷贝到直接内存中去了,而是在直接内存中创建对象,减少了一次拷贝。
1 - 知行合一2019-06-10思考题:是因为会很耗费cpu吗?
作者回复: 答案已经有同学给出了,异步I/O没有在Linux内核中实现
1