这篇文章主要介绍“Java NIO多路复用的方法以及Linux epoll实现原理详解”,在日常操作中,相信很多人在Java NIO多路复用的方法以及Linux epoll实现原理详解问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Java NIO多路复用的方法以及Linux epoll实现原理详解”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
成都网站设计、成都做网站、外贸网站建设的开发,更需要了解用户,从用户角度来建设网站,获得较好的用户体验。创新互联多年互联网经验,见的多,沟通容易、能帮助客户提出的运营建议。作为成都一家网络公司,打造的就是网站建设产品直销的概念。选择创新互联,不只是建站,我们把建站作为产品,不断的更新、完善,让每位来访用户感受到浩方产品的价值服务。
当需要从一个叫
r_fd
的描述符不停地读取数据,并把读到的数据写入一个叫
w_fd
的描述符时,我们可以用循环使用阻塞 I/O :
while((n = read(r_fd, buf, BUF_SIZE)) > 0) if(write(w_fd, buf, n) != n) err_sys("write error");
但是,如果要从两个地方读取数据呢?这时,不能再使用会把程序阻塞住的
read
函数。因为可能在阻塞地等待
r_fd1
的数据时,来不及处理
r_fd2
,已经到达的
r_fd2
的数据可能会丢失掉。
这个情况下需要使用非阻塞 I/O。
只要做个标记,把文件描述符标记为非阻塞的,以后再对它使用
read
函数:如果它还没有数据可读,函数会立即返回并把 errorno 这个变量的值设置为 35,于是我们知道它没有数据可读,然后可以立马去对其他描述符使用
read
;如果它有数据可读,我们就读取它数据。对所有要读的描述符都调用了一遍
read
之后,我们可以等一个较长的时间(比如几秒),然后再从第一个文件描述符开始调用
read
。这种循环就叫做轮询(polling)。
这样,不会像使用阻塞 I/O 时那样因为一个描述符
read
长时间处于等待数据而使程序阻塞。
轮询的缺点是浪费太多 CPU 时间。大多数时候我们没有数据可读,但是还是用了
read
这个系统调用,使用系统调用时会从用户态切换到内核态。而大多数情况下我们调用
read
,然后陷入内核态,内核发现这个描述符没有准备好,然后切换回用户态并且只得到 EAGAIN (errorno 被设置为 35),做的是无用功。描述符非常多的时候,每次的切换过程就是巨大的浪费。
所以,需要 I/O 多路复用。I/O 多路复用通过使用一个系统函数,同时等待多个描述符的可读、可写状态。
为了达到这个目的,我们需要做的是:建立一个描述符列表,以及我们分别关心它们的什么事件(可读还是可写还是发生例外情况);调用一个系统函数,直到这个描述符列表里有至少一个描述符关联的事件发生时,这个函数才会返回。
select, poll, epoll 就是这样的系统函数。
我们可以在所有 POSIX 兼容的系统里使用 select 函数来进行 I/O 多路复用。我们需要通过 select 函数的参数传递给内核的信息有:
* 我们关心哪些描述符 * 我们关心它们的什么事件 * 我们希望等待多长时间
select 的返回时,内核会告诉我们:
* 可读的描述符的个数 * 哪些描述符发生了哪些事件 #includeint select(int maxfdp1, fd_set* readfds, fd_set* writefds, fd_set* exceptfds, struct timeval* timeout); // 返回值: 已就绪的描述符的个数。超时时为 0 ,错误时为 -1
maxfdp1
意思是 “max file descriptor plus 1” ,就是把你要监视的所有文件描述符里最大的那个加上 1 。(它实际上决定了内核要遍历文件描述符的次数,比如你监视了文件描述符 5 和 20 并把
maxfdp1
设置为 21 ,内核每次都会从描述符 0 依次检查到 20。)
中间的三个参数是你想监视的文件描述符的集合。可以把 fd_set 类型视为 1024 位的二进制数,这意味着 select 只能监视小于 1024 的文件描述符(1024 是由 Linux 的 sys/select.h 里
FD_SETSIZE
宏设置的值)。在 select 返回后我们通过
FD_ISSET
来判断代表该位的描述符是否是已准备好的状态。
最后一个参数是等待超时的时长:到达这个时长但是没有任一描述符可用时,函数会返回 0 。
用一个代码片段来展示 select 的用法:
// 这个例子要监控文件描述符 3, 4 的可读状态,以及 4, 5 的可写状态 // 初始化两个 fd_set 以及 timeval fd_set read_set, write_set; FD_ZERO(read_set); FD_ZERO(write_set); timeval t; t.tv_sec = 5; // 超时为 5 秒 t.tv_usec = 0; // 加 0 微秒 // 设置好两个 fd_set int fd1 = 3; int fd2 = 4; int fd3 = 5; int maxfdp1 = 5 + 1; FD_SET(fd1, &read_set); FD_SET(fd2, &read_set); FD_SET(fd2, &write_set); FD_SET(fd3, &write_set); // 准备备用的 fd_set fd_set r_temp = read_set; fd_set w_temp = write_set; while(true){ // 每次都要重新设置放入 select 的 fd_set read_set = r_temp; write_set = w_temp; // 使用 select int n = select(maxfdp1, &read_set, &write_set, NULL, &t); // 上面的 select 函数会一直阻塞,直到 // 3, 4 可读以及 4, 5 可写这四件事中至少一项发生 // 或者等待时间到达 5 秒,返回 0 for(int i=0; i0; i++){ if(FD_ISSET(i, &read_set)){ n--; if(i==fd1) prinf("描述符 3 可读"); if(i==fd2) prinf("描述符 4 可读"); } if(FD_ISSET(i, &write_set)){ n--; if(i==fd2) prinf("描述符 3 可写"); if(i==fd3) prinf("描述符 4 可写"); } } // 上面的 printf 语句换成对应的 read 或者 write 函数就 // 可以立即读取或者写入相应的描述符而不用等待 }
可以看到,select 的缺点有:
默认能监视的文件描述符不能大于 1024,也代表监视的总数不超过1024。即使你因为需要监视的描述符大于 1024 而改动内核的
FD_SETSIZE
值,但由于 select 是每次都会线性扫描整个fd_set,集合越大速度越慢,所以性能会比较差。
select 函数返回时只能看见已准备好的描述符数量,至于是哪个描述符准备好了需要循环用
FD_ISSET
来检查,当未准备好的描述符很多而准备好的很少时,效率比较低。
select 函数每次执行的时候,都把参数里传入的三个 fd_set 从用户空间复制到内核空间。而每次 fd_set 里要监视的描述符变化不大时,全部重新复制一遍并不划算。同样在每次都是未准备好的描述符很多而准备好的很少时,调用 select 会很频繁,用户/内核间的的数据复制就成了一个大的开销。
还有一个问题是在代码的写法上给我一些困扰的,就是每次调用 select 前必须重新设置三个 fd_set。 fd_set 类型只是 1024 位的二进制数(实际上结构体里是几个 long 变量的数组;比如 64 位机器上 long 是 64 bit,那么 fd_set 里就是 16 个 long 变量的数组),由一位的 1 和 0 代表一个文件描述符的状态,但是其实调用 select 前后位的 1/0 状态意义是不一样的。
先讲一下几个对 fd_set 操作的函数的作用:FD_ZERO
把 fd_set 所有位设置为 0 ;FD_SET
把一个位设置为 1 ;FD_ISSET
判断一个位是否为 1 。
调用 select 前:我们用
FD_ZERO
把 fd_set 先全部初始化,然后用
FD_SET
把我们关心的代表描述符的位设置为 1 。我们这时可以用
FD_ISSET
判断这个位是否被我们设置,这时的含义是我们想要监视的描述符是否被设置为被监视的状态。
调用 select 时:内核判断 fd_set 里的位并把各个 fd_set 里所有值为 1 的位记录下来,然后把 fd_set 全部设置成 0 ;一个描述符上有对应的事件发生时,把对应 fd_set 里代表这个描述符的位设置为 1 。
在 select 返回之后:我们同样用
FD_ISSET
判断各个我们关心的位是 0 还是 1 ,这时的含义是,这个位是否是发生了我们关心的事件。
所以,在下一次调用 select 前,我们不得不把已经被内核改掉的 fd_set 全部重新设置一下。
select 在监视大量描述符尤其是更多的描述符未准备好的情况时性能很差。《Unix 高级编程》里写,用 select 的程序通常只使用 3 到 10 个描述符。
poll 和 select 是相似的,只是给的接口不同。
#includeint poll(struct pollfd fdarray[], nfds_t nfds, int timeout); // 返回值: 已就绪的描述符的个数。超时时为 0 ,错误时为 -1
fdarray
是
pollfd
的数组。pollfd
结构体是这样的:
struct pollfd { int fd; // 文件描述符 short events; // 我期待的事件 short revents; // 实际发生的事件:我期待的事件中发生的;或者异常情况 };
nfds
是
fdarray
的长度,也就是 pollfd 的个数。
timeout
代表等待超时的毫秒数。
相比 select ,poll 有这些优点:由于 poll 在 pollfd 里用
int fd
来表示文件描述符而不像 select 里用的 fd_set 来分别表示描述符,所以没有必须小于 1024 的限制,也没有数量限制;由于 poll 用
events
表示期待的事件,通过修改
revents
来表示发生的事件,所以不需要像 select 在每次调用前重新设置描述符和期待的事件。
除此之外,poll 和 select 几乎相同。在 poll 返回后,需要遍历
fdarray
来检查各个
pollfd
里的
revents
是否发生了期待的事件;每次调用 poll 时,把
fdarray
复制到内核空间。在描述符太多而每次准备好的较少时,poll 有同样的性能问题。
epoll 是在 Linux 2.5.44 中首度登场的。不像 select 和 poll ,它提供了三个系统函数而不是一个。
#includeint epoll_create(int size); // 返回值:epoll 描述符
size
用来告诉内核你想监视的文件描述符的数目,但是它并不是限制了能监视的描述符的最大个数,而是给内核最初分配的空间一个建议。然后系统会在内核中分配一个空间来存放事件表,并返回一个
epoll 描述符,用来操作这个事件表。
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event); // 返回值:成功时返回 0 ,失败时返回 -1
epfd
是 epoll 描述符。
op
是操作类型(增加/删除/修改)。
fd
是希望监视的文件描述符。
event
是一个 epoll_event 结构体的指针。epoll_event 的定义是这样的:
typedef union epoll_data { void *ptr; int fd; uint32_t u32; uint64_t u64; } epoll_data_t; struct epoll_event { uint32_t events; // 我期待的事件 epoll_data_t data; // 用户数据变量 };
这个结构体里,除了期待的事件外,还有一个
data
,是一个 union,它是用来让我们在得到下面第三个函数的返回值以后方便的定位文件描述符的。
int epoll_wait(int epfd, struct epoll_event *result_events, int maxevents, int timeout); // 返回值:已就绪的描述符个数。超时时为 0 ,错误时为 -1
epfd
是 epoll 描述符。
result_events
是 epoll_event 结构体的指针,它将指向的是所有已经准备好的事件描述符相关联的 epoll_event(在上个步骤里调用 epoll_ctl 时关联起来的)。下面的例子可以让你知道这个参数的意义。
maxevents
是返回的最大事件个数,也就是你能通过 result_events 指针遍历到的最大的次数。
timeout
是等待超时的毫秒数。
用一个代码片段来展示 epoll 的用法:
// 这个例子要监控文件描述符 3, 4 的可读状态,以及 4, 5 的可写状态
/* 通过 epoll_create 创建 epoll 描述符 */ int epfd = epoll_create(4); int fd1 = 3; int fd2 = 4; int fd3 = 5; /* 通过 epoll_ctl 注册好四个事件 */ struct epoll_event ev1; ev1.events = EPOLLIN; // 期待它的可读事件发生 ev1.data = fd1; // 我们通常就把 data 设置为 fd ,方便以后查看 epoll_ctl(epfd, EPOLL_CTL_ADD, fd1, &ev1); // 添加到事件表 struct epoll_event ev2; ev2.events = EPOLLIN; ev2.data = fd2; epoll_ctl(epfd, EPOLL_CTL_ADD, fd2, &ev2); struct epoll_event ev3; ev3.events = EPOLLOUT; // 期待它的可写事件发生 ev3.data = fd2; epoll_ctl(epfd, EPOLL_CTL_ADD, fd2, &ev3); struct epoll_event ev4; ev4.events = EPOLLOUT; ev4.data = fd3; epoll_ctl(epfd, EPOLL_CTL_ADD, fd3, &ev4); /* 通过 epoll_wait 等待事件 */ # DEFINE MAXEVENTS 4 struct epoll_event result_events[MAXEVENTS]; while(true){ int n = epoll_wait(epfd, &result_events, MAXEVENTS, 5000); for(int i=0; i所以 epoll 解决了 poll 和 select 的问题:
只在 epoll_ctl 的时候把数据复制到内核空间,这保证了每个描述符和事件一定只会被复制到内核空间一次;每次调用 epoll_wait 都不会复制新数据到内核空间。相比之下,select 每次调用都会把三个 fd_set 复制一遍;poll 每次调用都会把
fdarray
复制一遍。epoll_wait 返回 n ,那么只需要做 n 次循环,可以保证遍历的每一次都是有意义的。相比之下,select 需要做至少 n 次至多
maxfdp1
次循环;poll 需要遍历完 fdarray 即做nfds
次循环。在内部实现上,epoll 使用了回调的方法。调用 epoll_ctl 时,就是注册了一个事件:在集合中放入文件描述符以及事件数据,并且加上一个回调函数。一旦文件描述符上的对应事件发生,就会调用回调函数,这个函数会把这个文件描述符加入到就绪队列上。当你调用 epoll_wait 时,它只是在查看就绪队列上是否有内容,有的话就返回给你的程序。
select()
poll()
epoll_wait()
三个函数在操作系统看来,都是睡眠一会儿然后判断一会儿的循环,但是 select 和 poll 在醒着的时候要遍历整个文件描述符集合,而 epoll_wait 只是看看就绪队列是否为空而已。这是 epoll 高性能的理由,使得其 I/O 的效率不会像使用轮询的 select/poll 随着描述符增加而大大降低。注 1 :select/poll/epoll_wait 三个函数的等待超时时间都有一样的特性:等待时间设置为 0 时函数不阻塞而是立即返回,不论是否有文件描述符已准备好;poll/epoll_wait 中的 timeout 为 -1,select 中的 timeout 为 NULL 时,则无限等待,直到有描述符已准备好才会返回。
注 2 :有的新手会把文件描述符是否标记为阻塞 I/O 等同于 I/O 多路复用函数是否阻塞。其实文件描述符是否标记为阻塞,决定了你
read
或write
它时如果它未准备好是阻塞等待,还是立即返回 EAGAIN ;而 I/O 多路复用函数除非你把 timeout 设置为 0 ,否则它总是会阻塞住你的程序。注 3 :上面的例子只是入门,可能是不准确或不全面的:一是数据要立即处理防止丢失;二是 EPOLLIN/EPOLLOUT 不完全等同于可读可写事件,具体要去搜索 poll/epoll 的事件具体有哪些;三是大多数实际例子里,比如一个 tcp server ,都会在运行中不断增加/删除的文件描述符而不是记住固定的 3 4 5 几个描述符(用这种例子更能看出 epoll 的优势);四是 epoll 的优势更多的体现在处理大量闲连接的情况,如果场景是处理少量短连接,用 select 反而更好,而且用 select 的代码能运行在所有平台上。
到此,关于“Java NIO多路复用的方法以及Linux epoll实现原理详解”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!
当前名称:JavaNIO多路复用的方法以及Linuxepoll实现原理详解
URL链接:http://cdweb.net/article/pgijos.html