8年前 (2015-02-03)  nginx |   抢沙发  5 
文章评分 0 次,平均分 0.0



Web服务器之Nginx详解(理论部分) - WEB服务器 - 次元立方网 - 电脑知识与技术互动交流平台

  • 四、Web 服务请求过程Web服务器之Nginx详解(理论部分2)在上面的讲解中我们说明,Web服务器的如何提供服务的,有多进程的方式、多线程的方式还有异步方式我们先简单这么理解,大家肯定还有很多疑问,我们先存疑,后面我们慢慢说,现在我们不管Web服务器是如何提供服务的,多进程也好、多线程好,异步也罢。下面我们来说一下,一个客户端的具体请求Web服务的具体过程,从上图中我们可以看到有11步,下面我们来具体说一下,
    • 首先我们客户端发送一个请求到Web服务器,请求首先是到网卡。
    • 网卡将请求交由内核空间的内核处理,其实就是拆包了,发现请求的是80端口。
    • 内核便将请求发给了在用户空间的Web服务器,Web服务器接受到请求发现客户端请求的index.html页面、
    • Web服务器便进行系统调用将请求发给内核
    • 内核发现在请求的是一页面,便调用磁盘的驱动程序,连接磁盘
    • 内核通过驱动调用磁盘取得的页面文件
    • 内核将取得的页面文件保存在自己的缓存区域中便通知Web进程或线程来取相应的页面文件
    • Web服务器通过系统调用将内核缓存中的页面文件复制到进程缓存区域中
    • Web服务器取得页面文件来响应用户,再次通过系统调用将页面文件发给内核
    • 内核进程页面文件的封装并通过网卡发送出去
    • 当报文到达网卡时通过网络响应给客户端

    简单来说就是:用户请求-->送达到用户空间-->系统调用-->内核空间-->内核到磁盘上读取网页资源->返回到用户空间->响应给用户。上述简单的说明了一下,客户端向Web服务请求过程,在这个过程中,有两个I/O过程,一个就是客户端请求的网络I/O,另一个就是Web服务器请求页面的磁盘I/O。 下面我们就来说说Linux的I/O模型。

    五、Linux I/O 模型

    1.I/O模型分类

    说明:我们都知道web服务器的进程响应用户请求,但无法直接操作I/O设备,其必须通过系统调用,请求kernel来协助完成I/O动作
    内核会为每个I/O设备维护一个buffer
    ,如下图:

    Web服务器之Nginx详解(理论部分2)

    对于数据输入而言,即等待(wait)数据输入至buffer需要时间,而从buffer复制(copy)数据至进程也需要时间
    根据等待模式不同,I/O动作可分为五种模式。

    • 阻塞I/O
    • 非阻塞I/O
    • I/O复用(select和poll)
    • 信号(事件)驱动I/O(SIGIO)
    • 异步I/O(Posix.1的aio_系列函数)

    2.I/O模型的相关术语

    这里有必要先解释一下阻塞、非阻塞,同步、异步、I/O概念。

    (1).阻塞和非阻塞:

    阻塞和非阻塞指的是执行一个操作是等操作结束再返回,还是马上返回。比如你去车站接朋友,这是一个操作。可以有两种执行方式。第一种,你这人特实诚,老早就到了车站一直等到车来了接到朋友为止。第二种,你到了车站,问值班的那趟车来了没有,“还没有”,你出去逛一圈,可能过会回来再问。第一种就是阻塞方式,第二种则是非阻塞的。我认为阻塞和非阻塞讲得是做事方法,是针对做事的人而言的。

    (2).同步和异步:

    同步和异步又是另外一个概念,它是事件本身的一个属性。比如老板让你去搬一堆石头,而且只让你一个人干,你只好自己上阵,最后的结果是搬完了,还是你砸到脚了,只有搬完了你才知道。这就是同步的事件。如果老板还给你个小弟,你就可以让小弟去搬,搬完了告你一声。这就变成异步的了。其实异步还可以分为两种:带通知的和不带通知的。前面说的那种属于带通知的。有些小弟干活可能主动性不是很够,不会主动通知你,你就需要时不时的去关注一下状态。这种就是不带通知的异步。

    对于同步的事件,你只能以阻塞的方式去做。而对于异步的事件,阻塞和非阻塞都是可以的。非阻塞又有两种方式:主动查询和被动接收消息。被动不意味着一定不好,在这里它恰恰是效率更高的,因为在主动查询里绝大部分的查询是在做无用功。对于带通知的异步事件,两者皆可。而对于不带通知的,则只能用主动查询。

    (3).I/O

    回到I/O,不管是I还是O,对外设(磁盘)的访问都可以分成请求和执行两个阶段。请求就是看外设的状态信息(比如是否准备好了),执行才是真正的I/O操作。在Linux 2.6之前,只有“请求”是异步事件,2.6之后才引入AIO把“执行”异步化。别看Linux/Unix是用来做服务器的,这点上比Windows落后了好多,IOCP(Windows上的AIO)在Win2000上就有了,呵呵。

    (4).总结

           Linux上的前四种I/O模型的“执行”阶段都是同步的只有最后一种才做到了真正的全异步第一种阻塞式是最原始的方法,也是最累的办法。当然累与不累要看针对谁。应用程序是和内核打交道的。对应用程序来说,这种方式是最累的,但对内核来说这种方式恰恰是最省事的。还拿接人这事为例,你就是应用程序,值班员就是内核,如果你去了一直等着,值班员就省事了。当然现在计算机的设计,包括操作系统,越来越为终端用户考虑了,为了让用户满意,内核慢慢的承担起越来越多的工作,IO模型的演化也是如此。

           非阻塞I/O ,I/O复用,信号驱动式I/O其实都是非阻塞的,当然是针对“请求”这个阶段。非阻塞式是主动查询外设状态。I/O复用里的select,poll也是主动查询,不同的是select和poll可以同时查询多个fd(文件句柄)的状态,另外select有fd个数的限制。epoll是基于回调函数的。信号驱动式I/O则是基于信号消息的。这两个应该可以归到“被动接收消息”那一类中。最后就是伟大的AIO的出现,内核把什么事都干了,对上层应用实现了全异步,性能最好,当然复杂度也最高。好了,下面我们就来详细说一说,这几种模式。

    六、Linux I/O 模型具体说明

    首先我们先来看一下,基本 Linux I/O 模型的简单矩阵

    Web服务器之Nginx详解(理论部分2)

    从图中我们可以看到的模型有,同步阻塞I/O(阻塞I/O)、同步非阻塞I/O(非阻塞I/O )、异步阻塞I/O(I/O复用),异步非阻塞I/O(有两种,信号驱动I/O和异步I/O)。好了现在就来具体说一说吧。

    1.阻塞I/O

    说明:应用程序调用一个IO函数,导致应用程序阻塞,等待数据准备好。 如果数据没有准备好,一直等待数据准备好了,从内核拷贝到用户空间,IO函数返回成功指示。这个不用多解释吧,阻塞套接字。下图是它调用过程的图示:(注,一般网络I/O都是阻塞I/O,客户端发出请求,Web服务器进程响应,在进程没有返回页面之前,这个请求会处于一直等待状态)

    Web服务器之Nginx详解(理论部分2)

    2.非阻塞I/O

    我们把一个套接口设置为非阻塞就是告诉内核,当所请求的I/O操作无法完成时,不要将进程睡眠,而是返回一个错误。这样我们的I/O操作函数将不断的测试数据是否已经准备好,如果没有准备好,继续测试,直到数据准备好为止。在这个不断测试的过程中,会大量的占用CPU的时间,所有一般Web服务器都不使用这种I/O模型。具体过程如下图:

    Web服务器之Nginx详解(理论部分2)

    3.I/O复用(select和poll)

    I/O复用模型会用到select或poll函数或epoll函数(Linux2.6以后的内核开始支持),这两个函数也会使进程阻塞,但是和阻塞I/O所不同的的,这两个函数可以同时阻塞多个I/O操作。而且可以同时对多个读操作,多个写操作的I/O函数进行检测,直到有数据可读或可写时,才真正调用I/O操作函数。具体过程如下图:

    Web服务器之Nginx详解(理论部分2)

    4.信号驱动I/O(SIGIO)

    首先,我们允许套接口进行信号驱动I/O,并安装一个信号处理函数,进程继续运行并不阻塞。当数据准备好时,进程会收到一个SIGIO信号,可以在信号处理函数中调用I/O操作函数处理数据。具体过程如下图:

    Web服务器之Nginx详解(理论部分2)

    5.异步I/O(Posix.1的aio_系列函数)

    当一个异步过程调用发出后,调用者不能立刻得到结果。实际处理这个调用的部件在完成后,通过状态、通知和回调来通知调用者的输入输出操作。具体过程如下图:

    Web服务器之Nginx详解(理论部分2)

    6.I/O 模型总结(如下图)    

    Web服务器之Nginx详解(理论部分2) 0987654

    从上图中我们可以看出,可以看出,越往后,阻塞越少,理论上效率也是最优。其五种I/O模型中,前三种属于同步I/O,后两者属于异步I/O。

    同步I/O:

    • 阻塞I/O
    • 非阻塞I/O
    • I/O复用(select和poll)      

    异步I/O:

    • 信号驱动I/O(SIGIO) (半异步)
    • 异步I/O(Posix.1的aio_系列函数) (真正的异步)

    异步 I/O 和 信号驱动I/O的区别:

    • 信号驱动 I/O 模式下,内核可以复制的时候通知给我们的应用程序发送SIGIO 消息。
    • 异步 I/O 模式下,内核在所有的操作都已经被内核操作结束之后才会通知我们的应用程序。

    好了,5种模型的比较比较清晰了,下面我们来说一下五种模型的具体实现。

    七、Linux I/O模型的具体实现

    1.主要实现方式有以下几种:

    • select
    • poll
    • epoll
    • kqueue
    • /dev/poll
    • iocp

    注,其中iocp是Windows实现的,select、poll、epoll是Linux实现的,kqueue是FreeBSD实现的,/dev/poll是SUN的Solaris实现的。select、poll对应第3种(I/O复用)模型,iocp对应第5种(异步I/O)模型,那么epoll、kqueue、/dev/poll呢?其实也同select属于同一种模型,只是更高级一些,可以看作有了第4种(信号驱动I/O)模型的某些特性,如callback机制。

    2.为什么epoll、kqueue、/dev/poll比select高级?

    答案是,他们无轮询。因为他们用callback取代了。想想看,当套接字比较多的时候,每次select()都要通过遍历FD_SETSIZE个Socket来完成调度,不管哪个Socket是活跃的,都遍历一遍。这会浪费很多CPU时间。如果能给套接字注册某个回调函数,当他们活跃时,自动完成相关操作,那就避免了轮询,这正是epoll、kqueue、/dev/poll做的。这样子说可能不好理解,那么我说一个现实中的例子,假设你在大学读书,住的宿舍楼有很多间房间,你的朋友要来找你。select版宿管大妈就会带着你的朋友挨个房间去找,直到找到你为止。而epoll版宿管大妈会先记下每位同学的房间号,你的朋友来时,只需告诉你的朋友你住在哪个房间即可,不用亲自带着你的朋友满大楼找人。如果来了10000个人,都要找自己住这栋楼的同学时,select版和epoll版宿管大妈,谁的效率更高,不言自明。同理,在高并发服务器中,轮询I/O是最耗时间的操作之一,select、epoll、/dev/poll的性能谁的性能更高,同样十分明了。

    3.Windows or *nix (IOCP or kqueue、epoll、/dev/poll)?

    诚然,Windows的IOCP非常出色,目前很少有支持asynchronous I/O的系统,但是由于其系统本身的局限性,大型服务器还是在UNIX下。而且正如上面所述,kqueue、epoll、/dev/poll 与 IOCP相比,就是多了一层从内核copy数据到应用层的阻塞,从而不能算作asynchronous I/O类。但是,这层小小的阻塞无足轻重,kqueue、epoll、/dev/poll 已经做得很优秀了。

    4.总结一些重点

    • 只有IOCP(windows实现)是asynchronous I/O,其他机制或多或少都会有一点阻塞。
    • select(Linux实现)低效是因为每次它都需要轮询。但低效也是相对的,视情况而定,也可通过良好的设计改善
    • epoll(Linux实现)、kqueue(FreeBSD实现)、/dev/poll(Solaris实现)是Reacor模式,IOCP是Proactor模式。
    • Apache 2.2.9之前只支持select模型,2.2.9之后支持epoll模型
    • Nginx 支持epoll模型
    • Java nio包是select模型
 

本文原始地址:http://www.it165.net/admin/html/201308/1750.html

本站所有文章,若标明本站原创,转载请注明出处来自https://www.ifyoung.net/

发表评论

表情 格式

暂无评论

登录

忘记密码 ?

切换登录

注册

扫一扫二维码分享