1. 概念理解
在进行网路编程时,我们经常看到同步(Sync)/异步(Async),阻塞(Block)/非阻塞(Unblock)四种调用方法:
同步:
所谓同步,就是在发出一个功能调用时,在没有得到结果之前,该调用就不返回。也就是必须一件一件事做,等前一件做完了能够做下一件事。
例如普通B/S模式(同步):提交恳求->等待服务器处理->处理完毕返回这个期间客户端浏览器不能干任何事
异步:
异步的概念和同步相对。当一个异步过程调用发出后,调用者不能立即得到结果。实际处理这个调用的部件在完成后,通过状态、通知和反弹来通知调用者。
例如 ajax恳求(异步):请求通过风波触发->服务器处理(这是浏览器依然可以作其他事情)->处理完毕
阻塞
阻塞调用是指调用结果返回之前,当前线程会被挂起(线程步入非可执行状态,在这个状态下,cpu不会给线程分配时间片,即线程暂停运行)。函数只有在得到结果以后才能返回。
有人似乎会把阻塞调用和同步调用等同上去,实际上他是不同的。对于同步调用来说,很多时侯当前线程还是激活的,只是从逻辑上当前函数没有返回而已。例如,我们在socket中调用recv函数,如果缓冲区中没有数据,这个函数都会仍然等待,直到有数据才返回。而此时,当前线程都会继续处理各种各样的消息。
快递的事例:比如到你某个时侯到A楼一层(假如是内核缓冲区)取快件,但是你不知道快件什么时候过来,你又不能干别的事,只能死等着。但你可以睡着(进程处于休眠状态),因为你晓得快件把货送来时一定会给你打个电话(假定一定能吵醒你)。
非阻塞
非阻塞和阻塞的概念相对应,指在不能立即得到结果之前,该函数不会阻塞当前线程,而会立即返回。
还是等快件的事例:如果用忙协程的方式,每隔5分钟到A楼一层(内核缓冲区)去看快件来了没有。如果没来,立即返回。而快件来了,就置于A楼一层,等你去取。
对象的阻塞模式和阻塞函数调用
对象是否处于阻塞模式和函数是不是阻塞调用有很强的相关性,但是并不是一一对应的。阻塞对象上可以有非阻塞的调用方法,我们可以通过一定的API去协程状态,在适当的时侯调用阻塞函数,就可以防止阻塞。而对于非阻塞对象,调用特殊的函数也可以步入阻塞调用。函数select就是这样的一个反例。
1. 同步,就是我调用一个功能,该功能没有结束前,我死等结果。
2. 异步,就是我调用一个功能,不需要晓得该功能结果,该功能有结果后通知我(回调通知)
3. 阻塞, 就是调用我(函数),我(函数)没有接收完数据或则没有得到结果之前,我不会返回。
4. 非阻塞, 就是调用我(函数),我(函数)立即返回,通过select通知调用者
同步IO和异步IO的区别就在于:数据拷贝的时侯进程是否阻塞!
阻塞IO和非阻塞IO的区别就在于:应用程序的调用是否立刻返回!
对于举个简单c/s 模式:
同步:提交恳求->等待服务器处理->处理完毕返回这个期间客户端浏览器不能干任何事
异步:请求通过风波触发->服务器处理(这是浏览器依然可以作其他事情)->处理完毕
同步和异步都只针对于本机SOCKET而言的。
同步和异步,阻塞和非阻塞,有些混用,其实它们完全不是一回事,而且它们修饰的对象也不相同。
阻塞和非阻塞是指当进程访问的数据假如仍未就绪,进程是否须要等待,简单说这相当于函数内部的实现区别,也就是未就绪时是直接返回还是等待就绪;
而同步和异步是指访问数据的机制,同步通常指主动恳求并等待I/O操作完毕的方法,当数据就绪后在读写的时侯必须阻塞(区别就绪与读写二个阶段,同步的读写必须阻塞),异步则指主动恳求数据后便可以继续处理其它任务,随后等待I/O,操作完毕的通知,这可以使进程在数据读写时也不阻塞。(等待"通知")
2. Linux下的五种I/O模型
1)阻塞I/O(blocking I/O)
2)非阻塞I/O(nonblocking I/O)
3) I/O复用(select 和poll)(I/O multiplexing)
4)信号驱动I/O(signal driven I/O (SIGIO))
5)异步I/O(asynchronous I/O (the POSIX aio_functions))
前四种都是同步,只有最后一种才是异步IO。
阻塞I/O模型:
简介:进程会仍然阻塞,直到数据拷贝完成
应用程序调用一个IO函数,导致应用程序阻塞,等待数据打算好。 如果数据没有打算好,一直等待….数据准备好了,从内核拷贝到用户空间,IO函数返回成功指示。
我们第一次接触到的网路编程都是从listen()、send()、recv()等插口开始的。使用这种插口可以很方便的建立服务器/客户机的模型。
阻塞I/O模型图:在调用recv()/recvfrom()函数时,发生在内核中等待数据和复制数据的过程。
当调用recv()函数时,系统首先查是否有打算好的数据。如果数据没有打算好,那么系统就处于等待状态。当数据打算好后,将数据从系统缓冲区复制到用户空间,然后该函数返回。在套接应用程序中,当调用recv()函数时,未必用户空间就早已存在数据,那么此时recv()函数都会处于等待状态。
当使用socket()函数和WSASocket()函数创建套接字时,默认的套接字都是阻塞的。这意味着当调用Windows Sockets API不能立刻完成时,线程处于等待状态,直到操作完成。
并不是所有Windows Sockets API以阻塞套接字为参数调用就会发生阻塞。例如,以阻塞模式的套接字为参数调用bind()、listen()函数时,函数会立刻返回。将可能阻塞套接字的Windows Sockets API调用分为以下四种:
1.输入操作:recv()、recvfrom()、WSARecv()和WSARecvfrom()函数。以阻塞套接字为参数调用该函数接收数据。如果此时套接字缓冲区内没有数据可读,则调用线程在数据到来前仍然睡眠。
2.输出操作:send()、sendto()、WSASend()和WSASendto()函数。以阻塞套接字为参数调用该函数发送数据。如果套接字缓冲区没有可用空间,线程会仍然睡眠,直到有空间。
3.接受联接:accept()和WSAAcept()函数。以阻塞套接字为参数调用该函数,等待接受对方的联接恳求。如果此时没有联接恳求,线程都会步入睡眠状态。
4.外出联接:connect()和WSAConnect()函数。对于TCP联接,客户端以阻塞套接字为参数,调用该函数向服务器发起联接。该函数在收到服务器的应答前,不会返回。这意味着TCP联接总会等待起码到服务器的一次往返时间。
使用阻塞模式的套接字,开发网路程序比较简单,容易实现。当希望还能立刻发送和接收数据,且处理的套接字数目比较少的情况下,使用阻塞模式来开发网路程序比较合适。
阻塞模式套接字的不足表现为,在大量构建好的套接字线程之间进行通讯时比较困难。当使用“生产者-消费者”模型开发网路程序时,为每位套接字都分别分配一个读线程、一个处理数据线程和一个用于同步的风波,那么这样无疑加强系统的花销。其最大的缺点是当希望同时处理大量套接字时,将无从下手,其扩展性很差.
阻塞模式给网路编程带来了一个很大的问题,如在调用send()的同时,线程将被阻塞,在此期间,线程将难以执行任何运算或响应任何的网路恳求。这给多客户机、多业务逻辑的网路编程带来了挑战。这时,我们可能会选择多线程的方法来解决这个问题。
应对多客户机的网路应用,最简单的解决方法是在服务器端使用多线程(或多进程)。多线程(或多进程)的目的是让每位联接都拥有独立的线程(或进程),这样任何一个联接的阻塞都不会影响其他的联接。
具体使用多进程还是多线程,并没有一个特定的模式。传统意义上,进程的开支要远远小于线程,所以,如果须要同时为较多的客户机提供服务,则不推荐使用多进程;如果单个服务执行体须要消耗较多的CPU资源,譬如须要进行大规模或长时间的数据运算或文件访问,则进程较为安全。通常,使用 pthread_create () 创建新线程,fork() 创建新进程。
多线程/进程服务器同时为多个客户机提供应答服务。模型如下:
主线程持续等待客户端的联接恳求,如果有联接,则创建新线程,并在新线程中提供为前例同样的问答服务。
上述多线程的服务器模型虽然完美的解决了为多个客户机提供问答服务的要求,但毕竟并不尽然。如果要同时响应成百上千路的联接恳求,则无论多线程还是多进程就会严重抢占系统资源,降低系统对外界响应效率,而线程与进程本身也更容易步入假死状态。
由此可能会考虑使用“线程池”或“连接池”。“线程池”旨在减轻创建和销毁线程的频度,其维持一定合理数目的线程,并让空闲的线程重新承当新的执行任务。“连接池”维持联接的缓存池,尽量重用已有的联接、减少创建和关掉联接的频度。这两种技术都可以挺好的减少系统开支,都被广泛应用好多小型系统,如apache,mysql数据库等。
但是,“线程池”和“连接池”技术也只是在一定程度上减轻了频繁调用 IO 接口带来的资源占用。而且,所谓“池”始终有其上限,当恳求大大超过上限时,“池”构成的系统对外界的响应并不比没有池的时侯疗效好多少。所以使用“池”必须考虑其面临的响应规模,并按照响应规模调整“池”的大小。
对应上例中的所面临的可能同时出现的上千甚至上万次的客户端恳求,“线程池”或“连接池”或许可以减轻部份压力,但是不能解决所有问题。
非阻塞IO模型:
简介:非阻塞IO通过进程反复调用IO函数( 多次系统调用,并马上返回 ); 在数据拷贝的过程中,进程是阻塞的 ;
我们把一个SOCKET插口设置为非阻塞就是告诉内核,当所恳求的I/O操作未能完成时,不要将进程睡眠,而是返回一个错误。这样我们的I/O操作函数将不断的测试数据是否早已打算好,如果没有打算好,继续测试,直到数据打算好为止。在这个不断测试的过程中,会大量的占用CPU的时间。
把SOCKET设置为非阻塞模式,即通知系统内核:在调用Windows Sockets API时,不要让线程睡眠,而应当让函数立刻返回。在返回时,该函数返回一个错误代码。图所示,一个非阻塞模式套接字多次调用recv()函数的过程。前三次调用recv()函数时,内核数据还没有打算好。因此,该函数立刻返回WSAEWOULDBLOCK错误代码。第四次调用recv()函数时,数据早已打算好,被复制到应用程序的缓冲区中,recv()函数返回成功指示,应用程序开始处理数据。
当使用socket()函数和WSASocket()函数创建套接字时,默认都是阻塞的。在创建套接字以后,通过调用ioctlsocket()函数,将该套接字设置为非阻塞模式。Linux下的函数是:fcntl().
套接字设置为非阻塞模式后,在调用Windows Sockets API函数时,调用函数会立刻返回。大多数情况下,这些函数调用还会调用“失败”,并返回WSAEWOULDBLOCK错误代码。说明恳求的操作在调用期间内没有时间完成。通常,应用程序须要重复调用该函数,直到获得成功返回代码。
需要说明的是并非所有的Windows Sockets API在非阻塞模式下调用,都会返回WSAEWOULDBLOCK错误。例如,以非阻塞模式的套接字为参数调用bind()函数时,就不会返回该错误代码。当然,在调用WSAStartup()函数时更不会返回该错误代码,因为该函数是应用程序第一调用的函数,当然不会返回这样的错误代码。
要将套接字设置为非阻塞模式,除了使用ioctlsocket()函数之外,还可以使用WSAAsyncselect()和WSAEventselect()函数。当调用该函数时,套接字会手动地设置为非阻塞形式。
由于使用非阻塞套接字在调用函数时,会时常返回WSAEWOULDBLOCK错误。所以在任何时侯,都应仔细检测返回代码并作好对“失败”的打算。应用程序连续不断地调用这个函数,直到它返回成功指示为止。上面的程序清单中,在While循环体内不断地调用recv()函数,以读入1024个字节的数据。这种做法很浪费系统资源。
要完成这样的操作,有人使用MSG_PEEK标志调用recv()函数查看缓冲区中是否有数据可读。同样,这种方式也不好。因为该做法对系统引起的开支是很大的,并且应用程序起码要调用recv()函数两次,才能实际地读入数据。较好的做法是,使用套接字的“I/O模型”来判定非阻塞套接字是否可读可写。
非阻塞模式套接字与阻塞模式套接字相比,不容易使用。使用非阻塞模式套接字,需要编撰更多的代码,以便在每位Windows Sockets API函数调用中,对收到的WSAEWOULDBLOCK错误进行处理。因此,非阻塞套接字便变得有些难于使用。
但是,非阻塞套接字在控制构建的多个联接,在数据的收发量不均,时间不定时,明显具有优势。这种套接字在使用上存在一定难度,但只要排除了这种困难,它在功能上还是十分强悍的。通常情况下,可考虑使用套接字的“I/O模型”,它有助于应用程序通过异步方法,同时对一个或多个套接字的通讯加以管理。
IO复用模型:
简介:主要是select和epoll;对一个IO端口,两次调用,两次返回,比阻塞IO并没有哪些优越性;关键是能实现同时对多个IO端口进行窃听;
I/O复用模型会用到select、poll、epoll函数,这几个函数也会使进程阻塞,但是和阻塞I/O所不同的的,这两个函数可以同时阻塞多个I/O操作。而且可以同时对多个读操作,多个写操作的I/O函数进行检查,直到有数据可读或可写时,才真正调用I/O操作函数。
信号驱动IO
简介:两次调用,两次返回;
首先我们容许套接口进行讯号驱动I/O,并安装一个讯号处理函数,进程继续运行并不阻塞。当数据打算好时,进程会收到一个SIGIO讯号,可以在讯号处理函数中调用I/O操作函数处理数据。
异步IO模型
简介:数据拷贝的时侯进程无需阻塞。
当一个异步过程调用发出后,调用者不能立即得到结果。实际处理这个调用的部件在完成后,通过状态、通知和反弹来通知调用者的输入输出操作
同步IO导致进程阻塞,直至IO操作完成。
异步IO不会导致进程阻塞。
IO复用是先通过select调用阻塞。
5个I/O模型的比较:
3. select、poll、epoll简介
epoll跟select都能提供多路I/O复用的解决方案。在现今的Linux内核里有都还能支持,其中epoll是Linux所特有,而select则应当是POSIX所规定,一般操作系统均有实现
select:
select本质上是通过设置或则检测储存fd标志位的数据结构来进行下一步处理。这样所带来的缺点是:
1、 单个进程可监视的fd数目被限制,即能窃听端口的大小有限。
一般来说这个数量和系统内存关系很大红旗linux6.0,具体数量可以cat /proc/sys/fs/file-max察看。32位机默认是1024个。64位机默认是2048.
2、 对socket进行扫描时是线性扫描,即采用协程的方式,效率较低:
当套接字比较多的时侯,每次select()都要通过遍历FD_SETSIZE个Socket来完成调度,不管那个Socket是活跃的,都遍历一遍。这会浪费好多CPU时间。如果能给套接字注册某个回调函数,当她们活跃时,自动完成相关操作,那就防止了协程,这正是epoll与kqueue做的。
3、需要维护一个拿来储存大量fd的数据结构,这样会促使用户空间和内核空间在传递该结构时复制开支大
poll:
poll本质上和select没有区别,它将用户传入的字段拷贝到内核空间,然后查询每位fd对应的设备状态,如果设备就绪则在设备等待队列中加入一项并继续遍历,如果遍历完所有fd后没有发觉就绪设备,则挂起当前进程,直到设备就绪或则主动超时,被唤起后它又要再度遍历fd。这个过程经历了多次无谓的遍历。
它没有最大连接数的限制,原因是它是基于数组来储存的,但是同样有一个缺点:
1、大量的fd的字段被整体复制于用户态和内核地址空间之间,而不管这样的复制是不是有意义。 2、poll还有一个特征是“水平触发”,如果报告了fd后,没有被处理,那么上次poll时会再度报告该fd。
epoll:
epoll支持水平触发和边沿触发,最大的特征在于边沿触发,它只告诉进程什么fd刚才变为就需态,并且只会通知一次。还有一个特征是,epoll使用“事件”的就绪通知形式,通过epoll_ctl注册fd,一旦该fd就绪,内核都会采用类似callback的反弹机制来激活该fd,epoll_wait便可以收到通知
epoll的优点:
1、没有最大并发联接的限制,能打开的FD的上限远小于1024(1G的显存上能窃听约10万个端口);
2、效率提高,不是协程的方法,不会随着FD数量的降低效率下滑。只有活跃可用的FD才能调用callback函数;
即Epoll最大的优点就在于它只管你“活跃”的联接,而跟联接总量无关,因此在实际的网路环境中,Epoll的效率都会远远低于select和poll。
3、内存拷贝,利用mmap()文件映射显存加速与内核空间的消息传递;即epoll使用mmap降低复制开支。
select、poll、epoll 区别总结:
1、支持一个进程所能打开的最大连接数
select
单个进程所能打开的最大连接数有FD_SETSIZE宏定义,其大小是32个整数的大小(在32位的机器上,大小就是32*32,同理64位机器上FD_SETSIZE为32*64),当然我们可以对进行更改,然后重新编译内核,但是性能可能会遭到影响,这须要进一步的测试。
poll
poll本质上和select没有区别,但是它没有最大连接数的限制,原因是它是基于数组来储存的
epoll
虽然连接数有上限,但是很大,1G显存的机器上可以打开10万左右的联接,2G显存的机器可以打开20万左右的联接
2、FD飙升后带来的IO效率问题
select
因为每次调用时就会对联接进行线性遍历,所以随着FD的降低会导致遍历速率慢的“线性增长性能问题”。
poll
同上
epoll
因为epoll内核中实现是按照每位fd上的callback函数来实现的linux异步io,只有活跃的socket就会主动调用callbacklinux异步io,所以在活跃socket较少的情况下鸟哥的linux私房菜,使用epoll没有后面三者的线性增长的性能问题,但是所有socket都很活跃的情况下,可能会有性能问题。
3、 消息传递方法
select
内核须要将消息传递到用户空间,都须要内核拷贝动作
poll
同上
epoll
epoll通过内核和用户空间共享一块显存来实现的。
总结:
综上,在选择select,poll,epoll时要依据具体的使用场合以及这三种形式的自身特性。
1、表面上看epoll的性能最好,但是在连接数少而且联接都非常活跃的情况下,select和poll的性能可能比epoll好,毕竟epoll的通知机制须要好多函数急跌。
2、select低效是因为每次它都须要协程。但低效也是相对的,视情况而定,也可通过良好的设计改善