极客时间已完结课程限时免费阅读

23 | Linux利器:epoll的前世今生

23 | Linux利器:epoll的前世今生-极客时间

23 | Linux利器:epoll的前世今生

讲述:冯永吉

时长11:53大小10.88M

你好,我是盛延敏,这里是网络编程实战第 23 讲,欢迎回来。
性能篇的前三讲,非阻塞 I/O 加上 I/O 多路复用,已经渐渐帮助我们在高性能网络编程这个领域搭建了初步的基石。但是,离最终的目标还差那么一点,如果说 I/O 多路复用帮我们打开了高性能网络编程的窗口,那么今天的主题——epoll,将为我们增添足够的动力。
这里有放置了一张图,这张图来自 The Linux Programming Interface(No Starch Press)。这张图直观地为我们展示了 select、poll、epoll 几种不同的 I/O 复用技术在面对不同文件描述符大小时的表现差异。
从图中可以明显地看到,epoll 的性能是最好的,即使在多达 10000 个文件描述的情况下,其性能的下降和有 10 个文件描述符的情况相比,差别也不是很大。而随着文件描述符的增大,常规的 select 和 poll 方法性能逐渐变得很差。
那么,epoll 究竟使用了什么样的“魔法”,取得了如此令人惊讶的效果呢?接下来,我们就来一起分析一下。

epoll 的用法

在分析对比 epoll、poll 和 select 几种技术之前,我们先看一下怎么使用 epoll 来完成一个服务器程序,具体的原理我将在 29 讲中进行讲解。
epoll 可以说是和 poll 非常相似的一种 I/O 多路复用技术,有些朋友将 epoll 归为异步 I/O,我觉得这是不正确的。本质上 epoll 还是一种 I/O 多路复用技术, epoll 通过监控注册的多个描述字,来进行 I/O 事件的分发处理。不同于 poll 的是,epoll 不仅提供了默认的 level-triggered(条件触发)机制,还提供了性能更为强劲的 edge-triggered(边缘触发)机制。至于这两种机制的区别,我会在后面详细展开。
使用 epoll 进行网络程序的编写,需要三个步骤,分别是 epoll_create,epoll_ctl 和 epoll_wait。接下来我对这几个 API 详细展开讲一下。

epoll_create

int epoll_create(int size);
int epoll_create1(int flags);
返回值: 若成功返回一个大于0的值,表示epoll实例;若返回-1表示出错
epoll_create() 方法创建了一个 epoll 实例,从 Linux 2.6.8 开始,参数 size 被自动忽略,但是该值仍需要一个大于 0 的整数。这个 epoll 实例被用来调用 epoll_ctl 和 epoll_wait,如果这个 epoll 实例不再需要,比如服务器正常关机,需要调用 close() 方法释放 epoll 实例,这样系统内核可以回收 epoll 实例所分配使用的内核资源。
关于这个参数 size,在一开始的 epoll_create 实现中,是用来告知内核期望监控的文件描述字大小,然后内核使用这部分的信息来初始化内核数据结构,在新的实现中,这个参数不再被需要,因为内核可以动态分配需要的内核数据结构。我们只需要注意,每次将 size 设置成一个大于 0 的整数就可以了。
epoll_create1() 的用法和 epoll_create() 基本一致,如果 epoll_create1() 的输入 flags 为 0,则和 epoll_create() 一样,内核自动忽略。可以增加如 EPOLL_CLOEXEC 的额外选项,如果你有兴趣的话,可以研究一下这个选项有什么意义。

epoll_ctl

int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
返回值: 若成功返回0;若返回-1表示出错
在创建完 epoll 实例之后,可以通过调用 epoll_ctl 往这个 epoll 实例增加或删除监控的事件。函数 epll_ctl 有 4 个入口参数。
第一个参数 epfd 是刚刚调用 epoll_create 创建的 epoll 实例描述字,可以简单理解成是 epoll 句柄。
第二个参数表示增加还是删除一个监控事件,它有三个选项可供选择:
EPOLL_CTL_ADD: 向 epoll 实例注册文件描述符对应的事件;
EPOLL_CTL_DEL:向 epoll 实例删除文件描述符对应的事件;
EPOLL_CTL_MOD: 修改文件描述符对应的事件。
第三个参数是注册的事件的文件描述符,比如一个监听套接字。
第四个参数表示的是注册的事件类型,并且可以在这个结构体里设置用户需要的数据,其中最为常见的是使用联合结构里的 fd 字段,表示事件所对应的文件描述符。
typedef union epoll_data {
void *ptr;
int fd;
uint32_t u32;
uint64_t u64;
} epoll_data_t;
struct epoll_event {
uint32_t events; /* Epoll events */
epoll_data_t data; /* User data variable */
};
我们在前面介绍 poll 的时候已经接触过基于 mask 的事件类型了,这里 epoll 仍旧使用了同样的机制,我们重点看一下这几种事件类型:
EPOLLIN:表示对应的文件描述字可以读;
EPOLLOUT:表示对应的文件描述字可以写;
EPOLLRDHUP:表示套接字的一端已经关闭,或者半关闭;
EPOLLHUP:表示对应的文件描述字被挂起;
EPOLLET:设置为 edge-triggered,默认为 level-triggered。

epoll_wait

int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
返回值: 成功返回的是一个大于0的数,表示事件的个数;返回0表示的是超时时间到;若出错返回-1.
epoll_wait() 函数类似之前的 poll 和 select 函数,调用者进程被挂起,在等待内核 I/O 事件的分发。
这个函数的第一个参数是 epoll 实例描述字,也就是 epoll 句柄。
第二个参数返回给用户空间需要处理的 I/O 事件,这是一个数组,数组的大小由 epoll_wait 的返回值决定,这个数组的每个元素都是一个需要待处理的 I/O 事件,其中 events 表示具体的事件类型,事件类型取值和 epoll_ctl 可设置的值一样,这个 epoll_event 结构体里的 data 值就是在 epoll_ctl 那里设置的 data,也就是用户空间和内核空间调用时需要的数据。
第三个参数是一个大于 0 的整数,表示 epoll_wait 可以返回的最大事件值。
第四个参数是 epoll_wait 阻塞调用的超时值,如果这个值设置为 -1,表示不超时;如果设置为 0 则立即返回,即使没有任何 I/O 事件发生。

epoll 例子

代码解析

下面我们把原先基于 poll 的服务器端程序改造成基于 epoll 的:
#include "lib/common.h"
#define MAXEVENTS 128
char rot13_char(char c) {
if ((c >= 'a' && c <= 'm') || (c >= 'A' && c <= 'M'))
return c + 13;
else if ((c >= 'n' && c <= 'z') || (c >= 'N' && c <= 'Z'))
return c - 13;
else
return c;
}
int main(int argc, char **argv) {
int listen_fd, socket_fd;
int n, i;
int efd;
struct epoll_event event;
struct epoll_event *events;
listen_fd = tcp_nonblocking_server_listen(SERV_PORT);
efd = epoll_create1(0);
if (efd == -1) {
error(1, errno, "epoll create failed");
}
event.data.fd = listen_fd;
event.events = EPOLLIN | EPOLLET;
if (epoll_ctl(efd, EPOLL_CTL_ADD, listen_fd, &event) == -1) {
error(1, errno, "epoll_ctl add listen fd failed");
}
/* Buffer where events are returned */
events = calloc(MAXEVENTS, sizeof(event));
while (1) {
n = epoll_wait(efd, events, MAXEVENTS, -1);
printf("epoll_wait wakeup\n");
for (i = 0; i < n; i++) {
if ((events[i].events & EPOLLERR) ||
(events[i].events & EPOLLHUP) ||
(!(events[i].events & EPOLLIN))) {
fprintf(stderr, "epoll error\n");
close(events[i].data.fd);
continue;
} else if (listen_fd == events[i].data.fd) {
struct sockaddr_storage ss;
socklen_t slen = sizeof(ss);
int fd = accept(listen_fd, (struct sockaddr *) &ss, &slen);
if (fd < 0) {
error(1, errno, "accept failed");
} else {
make_nonblocking(fd);
event.data.fd = fd;
event.events = EPOLLIN | EPOLLET; //edge-triggered
if (epoll_ctl(efd, EPOLL_CTL_ADD, fd, &event) == -1) {
error(1, errno, "epoll_ctl add connection fd failed");
}
}
continue;
} else {
socket_fd = events[i].data.fd;
printf("get event on socket fd == %d \n", socket_fd);
while (1) {
char buf[512];
if ((n = read(socket_fd, buf, sizeof(buf))) < 0) {
if (errno != EAGAIN) {
error(1, errno, "read error");
close(socket_fd);
}
break;
} else if (n == 0) {
close(socket_fd);
break;
} else {
for (i = 0; i < n; ++i) {
buf[i] = rot13_char(buf[i]);
}
if (write(socket_fd, buf, n) < 0) {
error(1, errno, "write error");
}
}
}
}
}
}
free(events);
close(listen_fd);
}
程序的第 23 行调用 epoll_create0 创建了一个 epoll 实例。
28-32 行,调用 epoll_ctl 将监听套接字对应的 I/O 事件进行了注册,这样在有新的连接建立之后,就可以感知到。注意这里使用的是 edge-triggered(边缘触发)。
35 行为返回的 event 数组分配了内存。
主循环调用 epoll_wait 函数分发 I/O 事件,当 epoll_wait 成功返回时,通过遍历返回的 event 数组,就直接可以知道发生的 I/O 事件。
第 41-46 行判断了各种错误情况。
第 47-61 行是监听套接字上有事件发生的情况下,调用 accept 获取已建立连接,并将该连接设置为非阻塞,再调用 epoll_ctl 把已连接套接字对应的可读事件注册到 epoll 实例中。这里我们使用了 event_data 里面的 fd 字段,将连接套接字存储其中。
第 63-84 行,处理了已连接套接字上的可读事件,读取字节流,编码后再回应给客户端。

实验

启动该服务器:
$./epoll01
epoll_wait wakeup
epoll_wait wakeup
epoll_wait wakeup
get event on socket fd == 6
epoll_wait wakeup
get event on socket fd == 5
epoll_wait wakeup
get event on socket fd == 5
epoll_wait wakeup
get event on socket fd == 6
epoll_wait wakeup
get event on socket fd == 6
epoll_wait wakeup
get event on socket fd == 6
epoll_wait wakeup
get event on socket fd == 5
再启动几个 telnet 客户端,可以看到有连接建立情况下,epoll_wait 迅速从挂起状态结束;并且套接字上有数据可读时,epoll_wait 也迅速结束挂起状态,这时候通过 read 可以读取套接字接收缓冲区上的数据。
$telnet 127.0.0.1 43211
Trying 127.0.0.1...
Connected to 127.0.0.1.
Escape character is '^]'.
fasfsafas
snfsfnsnf
^]
telnet> quit
Connection closed.

edge-triggered VS level-triggered

对于 edge-triggered 和 level-triggered, 官方的说法是一个是边缘触发,一个是条件触发。也有文章从电子脉冲角度来解读的,总体上,给初学者的带来的感受是理解上有困难。
这里有两个程序,我们用这个程序来说明一下这两者之间的不同。
在这两个程序里,即使已连接套接字上有数据可读,我们也不调用 read 函数去读,只是简单地打印出一句话。
第一个程序我们设置为 edge-triggered,即边缘触发。开启这个服务器程序,用 telnet 连接上,输入一些字符,我们看到,服务器端只从 epoll_wait 中苏醒过一次,就是第一次有数据可读的时候。
$./epoll02
epoll_wait wakeup
epoll_wait wakeup
get event on socket fd == 5
$telnet 127.0.0.1 43211
Trying 127.0.0.1...
Connected to 127.0.0.1.
Escape character is '^]'.
asfafas
第二个程序我们设置为 level-triggered,即条件触发。然后按照同样的步骤来一次,观察服务器端,这一次我们可以看到,服务器端不断地从 epoll_wait 中苏醒,告诉我们有数据需要读取。
$./epoll03
epoll_wait wakeup
epoll_wait wakeup
get event on socket fd == 5
epoll_wait wakeup
get event on socket fd == 5
epoll_wait wakeup
get event on socket fd == 5
epoll_wait wakeup
get event on socket fd == 5
...
这就是两者的区别,条件触发的意思是只要满足事件的条件,比如有数据需要读,就一直不断地把这个事件传递给用户;而边缘触发的意思是只有第一次满足条件的时候才触发,之后就不会再传递同样的事件了。
一般我们认为,边缘触发的效率比条件触发的效率要高,这一点也是 epoll 的杀手锏之一。

epoll 的历史

早在 Linux 实现 epoll 之前,Windows 系统就已经在 1994 年引入了 IOCP,这是一个异步 I/O 模型,用来支持高并发的网络 I/O,而著名的 FreeBSD 在 2000 年引入了 Kqueue——一个 I/O 事件分发框架。
Linux 在 2002 年引入了 epoll,不过相关工作的讨论和设计早在 2000 年就开始了。如果你感兴趣的话,可以http://lkml.iu.edu/hypermail/linux/kernel/0010.3/0003.html"> 点击这里看一下里面的讨论。
为什么 Linux 不把 FreeBSD 的 kqueue 直接移植过来,而是另辟蹊径创立了 epoll 呢?
让我们先看下 kqueue 的用法,kqueue 也需要先创建一个名叫 kqueue 的对象,然后通过这个对象,调用 kevent 函数增加感兴趣的事件,同时,也是通过这个 kevent 函数来等待事件的发生。
int kqueue(void);
int kevent(int kq, const struct kevent *changelist, int nchanges,
      struct kevent *eventlist, int nevents,
      const struct timespec *timeout);
void EV_SET(struct kevent *kev, uintptr_t ident, short filter,
      u_short flags, u_int fflags, intptr_t data, void *udata);
struct kevent {
 uintptr_t ident;   /* identifier (e.g., file descriptor) */
 short    filter;  /* filter type (e.g., EVFILT_READ) */
 u_short   flags;   /* action flags (e.g., EV_ADD) */
 u_int    fflags;  /* filter-specific flags */
 intptr_t   data;   /* filter-specific data */
 void     *udata;   /* opaque user data */
};
Linus 在他最初的设想里,提到了这么一句话,也就是说他觉得类似 select 或 poll 的数组方式是可以的,而队列方式则是不可取的。
So sticky arrays of events are good, while queues are bad. Let’s take that as one of the fundamentals.
在最初的设计里,Linus 等于把 keque 里面的 kevent 函数拆分了两个部分,一部分负责事件绑定,通过 bind_event 函数来实现;另一部分负责事件等待,通过 get_events 来实现。
struct event {
unsigned long id; /* file descriptor ID the event is on */
unsigned long event; /* bitmask of active events */
};
int bind_event(int fd, struct event *event);
int get_events(struct event * event_array, int maxnr, struct timeval *tmout);
和最终的 epoll 实现相比,前者类似 epoll_ctl,后者类似 epoll_wait,不过原始的设计里没有考虑到创建 epoll 句柄,在最终的实现里增加了 epoll_create,支持了 epoll 句柄的创建。
2002 年,epoll 最终在 Linux 2.5.44 中首次出现,在 2.6 中趋于稳定,为 Linux 的高性能网络 I/O 画上了一段句号。

总结

Linux 中 epoll 的出现,为高性能网络编程补齐了最后一块拼图。epoll 通过改进的接口设计,避免了用户态 - 内核态频繁的数据拷贝,大大提高了系统性能。在使用 epoll 的时候,我们一定要理解条件触发和边缘触发两种模式。条件触发的意思是只要满足事件的条件,比如有数据需要读,就一直不断地把这个事件传递给用户;而边缘触发的意思是只有第一次满足条件的时候才触发,之后就不会再传递同样的事件了。

思考题

理解完了 epoll,和往常一样,我给你布置两道思考题:
第一道,你不妨试着修改一下第 20 讲中 select 的例子,即在已连接套接字上有数据可读,也不调用 read 函数去读,看一看你的结果,你认为 select 是边缘触发的,还是条件触发的?
第二道,同样的修改一下第 21 讲 poll 的例子,看看你的结果,你认为 poll 是边缘触发的,还是条件触发的?
你可以在 GitHub 上上传你的代码,并写出你的疑惑,我会和你一起交流,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 10

提建议

上一篇
22 | 非阻塞I/O:提升性能的加速器
下一篇
24 | C10K问题:高并发模型设计
unpreview
 写留言

精选留言(51)

  • 传说中的成大大
    2019-10-08
    我回想和对了poll和epoll的代码 觉得效率问题主要出现在 epoll返回的是有事件发生的数组,而poll返回的是准备好的个数,每次poll函数返回都要遍历注册的描述符结合数组 尤其是数量越大遍历次数就越多 我觉得性能差异在这里 抛开阻塞和阻塞i/o层面

    作者回复: 这是一个很重要的点,恭喜你悟到了 :)

    共 5 条评论
    58
  • moob
    2019-10-15
    边缘触发的情况, 如果epoll_wait时提供的events数组太小,那么会错过事件?

    作者回复: 如果你读了后面答疑部分的源码就会明白,答案是否定的。如果你设置一个很小的events数组,会影响事件的时效性,也就是说,可能10秒前的一个I/O事件,现在你才收到,但是不会错过事件,其原因是事件总在内核中记录着。你不收,内核里也有;你收的快一点,时效性就越好,表现出对用户的体验就越好。

    19
  • yusuf
    2019-10-21
    https://github.com/linuxxiaoyu/block 执行后都会重复打印”need read socket_fd“和“poll need to read”,所以select和poll应该都是条件触发

    作者回复: 就喜欢你这样努力完成作业,实际写代码的样子。赞赞赞。

    18
  • yusuf
    2019-10-21
    之前对epoll01.c中第66行while(1)很困惑,不明白是从哪里跳出这个循环的。后来通过gdb调试分析,发现在55行把socket_fd设置为了非阻塞,然后在68行调用read时,socket_fd没有数据可读会直接返回-1(errno = EAGAIN),从而在73行通过break跳出了while(1)循环。希望对同样有此困惑的同学有所帮助。

    作者回复: gdb都用上了,牛~

    共 4 条评论
    14
  • 空想家
    2019-09-30
    LT + non-blocking 和 ET + non-blocking 有什么区别吗?性能谁更好一点? epoll 的惊群问题会讲吗?

    作者回复: LT和ET的区别在文稿里已经给出了。 我理解的惊群问题是当一个网络套接字上有事件发生时,多个线程或者进程会感知,从而引发一群线程干活。 我认为设计良好的程序应该避免这样的问题,比如一个套接字只被一个线程所管理。我们后面的框架设计也是遵循了这个原则。

    共 2 条评论
    9
  • 2019-11-24
    期待后面分享 select/poll/epoll三者产生,随着处理的文件描述符越多性能差异越大的原因? 看文章内容和评论,目前的依据有三个 1:避免了用户态-内核态频繁的数据拷贝,这个老师会在后面讲,猜测是零拷贝技术 2:边缘条件触发比条件触发性能更优,select/poll都是条件触发,这个老师在评论中又讲有人测试过,其实他俩性能之差,并不如理论上讲的那么大,这需要测试下 3:从poll和epoll的返回值角度来思考,epoll返回的是有事件发生的数组,poll返回的是事件就绪的个数,每次poll返回都需要遍历注册的文件描述符的结果数组,尤其数据量越大遍历次数就越多,这个也是poll相对于epoll慢的原因
    展开
    共 2 条评论
    8
  • linker
    2020-03-28
    经测试seclet与poll都是水平触发
    共 1 条评论
    5
  • herongwei
    2019-10-24
    老师,您好,在总结里:“避免了用户态 - 内核态频繁的数据拷贝”这句话是什么意思的呢?文稿中好像没有提到 epoll 的数据拷贝?频繁指的是什么呢?另外,对比之前的 ,select,poll,epoll 三者在数据拷贝之间的区别又有什么不同呢?希望老师回答一下,谢谢!

    作者回复: 在后面的章节里对select、poll、epoll这几个技术进行了不同程度的比较,你可以接着往下读。

    共 3 条评论
    5
  • 向东
    2019-10-03
    为何在水平触发的epoll03,当tcpclient都退出了,还说有数据可读呢,get event on socket fd ==5,二是请问为何每次都从五开始呢,前面0-5分别是谁占用了呢,谢谢。

    作者回复: 因为这部分数据没有被处理掉,而这个正是条件触发的精髓。 至于描述字,我是这么理解的,0,1,2分别被stdin, stdout和stderr所用,3被监听套接字所用,本地连接的客户端描述字是4,那么本地已连接套接字就是5了。

    5
  • 刘丹
    2019-09-30
    提个小建议,能否把代码解说(例如:第 41-46 行判断了各种错误情况)作为注释放在代码里?

    作者回复: 这里主要是因为播报员无法通读代码,所以把代码解说拿出来了。

    4
  • ray
    2020-04-27
    老师您好, 想跟您请教什么时候会触发EPOLLOUT事件,我们的课程范例好像都只有EPOLLIN事件。 当读事件触发后,为什么不用为fd设置EPOLLOUT事件,就可以直接将资料写回fd,这样我们要怎么知道一个fd是否可写呢? 谢谢老师的解答!
    展开

    作者回复: 非常好的问题。 实际上,确实需要通过注册EPOLLOUT事件,让内核告诉我们可以往某个fd上写数据,课程只是没有展现这部分的能力而已,而在lib/epoll_dispatcher.c中是会注册EPOLLOUT事件的。

    4
  • Steiner
    2019-10-23
    请问如果我用epoll_ctl显式更改event事件,那么epoll_wait会不会检测到,并装载到events数组中?

    作者回复: 当然会,自动更新,动态检测,这就是NB的地方啊。

    3
  • Steiner
    2021-02-19
    错误事件需要我们手动注册吗 还是说系统在遇到错误发生会通过设置events字段来通知我们 压根就不需要我们注册? poll也是这样吗?

    作者回复: 错误事件是不需要注册的,需要在事件检测程序里,针对错误做对应的处理。

    2
  • нáпの゛
    2020-09-02
    老师,边沿触发的时候,如果没有把数据全部读完,剩余的未读数据后续是什么情况。在缓存区中会影响socket后续的读写操作吗,比如这会请求其他资源,触发另一个读时间,会不会读到前面未读的数据?还是说不影响,内核在新的读操作之后会清理掉?

    作者回复: 当然会读到之前的数据,因为TCP是流式数据,像水流一样,连绵不绝,之前的数据不会被扔掉。

    2
  • supermouse
    2020-02-23
    思考题第一道:select 是条件触发,修改后的代码:https://github.com/YoungYo/yolanda/blob/master/chap-20/select02.c 思考题第二道:poll 是条件触发,修改后的代码:https://github.com/YoungYo/yolanda/blob/master/chap-21/pollserver03.c
    2
  • 王盛武
    2019-11-06
    边缘触发不是很理解,只通知第一次,如果报文没读完,后续的数据怎么办?

    作者回复: 你的程序要接着把它读完,否则就会没完没了的收到可读事件。

    共 5 条评论
    2
  • ICE FROG
    2021-03-08
    边缘触发相同的条件只会触发一次,那来自两个客户端的连接事件会受影响吗?

    作者回复: 不会。触发是绑定到不同的套接字的。

    1
  • 常文龙
    2020-06-11
    老师,您好。我看几个例子都只注册了读时间,epoll的例子也只注册了EPOLLIN事件,在处理完EPOLLIN事件后立马做了写操作,这个写操作时,写缓冲区会不会还没准备好?这里可以通过监听EPOLLOUT来做写操作吗?一般什么场景下回去监听写事件呢?

    作者回复: 好问题,实际上应该处理完读之后,再注册一个EPOLLOUT事件来进行可写判断,当缓冲区真正准备好的时候,在去进行写操作。这在多个连接同时写的时候尤其重要。

    共 3 条评论
    1
  • leving
    2019-12-18
    想问下老师,epoll的边缘触发比水平触发的效率要高,请问下,边缘触发效率高在哪里?

    作者回复: 在代码解析那篇里,我详细分析了边缘触发和水平触发实现上的差异,通俗一点说,边缘触发就是通知你一下,解析来应用程序要自己处理,而水平触发则是你没有处理的话,一直不断的通知你处理。

    1
  • HunterYuan
    2019-11-20
    老师给的例子,是不是把close(efd),给掉了?还是不用关闭

    作者回复: 应该是忘记关了 :)

    1