麻豆小视频在线观看_中文黄色一级片_久久久成人精品_成片免费观看视频大全_午夜精品久久久久久久99热浪潮_成人一区二区三区四区

首頁 > 服務器 > Linux服務器 > 正文

linux epoll機制詳解

2024-09-05 23:04:35
字體:
來源:轉載
供稿:網友

在linux/142382.html">linux/199397.html">linux 沒有實現(xiàn)epoll事件驅動機制之前,我們一般選擇用select或者poll等IO多路復用的方法來實現(xiàn)并發(fā)服務程序。在linux新的內核中,有了一種替換它的機制,就是epoll。

select()和poll() IO多路復用模型

select的缺點:

1.單個進程能夠監(jiān)視的文件描述符的數量存在最大限制,通常是1024,當然可以更改數量,但由于select采用輪詢的方式掃描文件描述符,文件描述符數量越多,性能越差;(在linux內核頭文件中,有這樣的定義:#define __FD_SETSIZE 1024)
2.內核 / 用戶空間內存拷貝問題,select需要復制大量的句柄數據結構,產生巨大的開銷;
3.select返回的是含有整個句柄的數組,應用程序需要遍歷整個數組才能發(fā)現(xiàn)哪些句柄發(fā)生了事件;
4.select的觸發(fā)方式是水平觸發(fā),應用程序如果沒有完成對一個已經就緒的文件描述符進行IO操作,那么之后每次select調用還是會將這些文件描述符通知進程。

相比select模型,poll使用鏈表保存文件描述符,因此沒有了監(jiān)視文件數量的限制,但其他三個缺點依然存在。

假設我們的服務器需要支持100萬的并發(fā)連接,則在__FD_SETSIZE 為1024的情況下,則我們至少需要開辟1k個進程才能實現(xiàn)100萬的并發(fā)連接。除了進程間上下文切換的時間消耗外,從內核/用戶空間大量的無腦內存拷貝、數組輪詢等,是系統(tǒng)難以承受的。因此,基于select模型的服務器程序,要達到10萬級別的并發(fā)訪問,是一個很難完成的任務。

epoll IO多路復用模型實現(xiàn)機制

由于epoll的實現(xiàn)機制與select/poll機制完全不同,上面所說的 select的缺點在epoll上不復存在。

設想一下如下場景:有100萬個客戶端同時與一個服務器進程保持著TCP連接。而每一時刻,通常只有幾百上千個TCP連接是活躍的(事實上大部分場景都是這種情況)。如何實現(xiàn)這樣的高并發(fā)?

在select/poll時代,服務器進程每次都把這100萬個連接告訴操作系統(tǒng)(從用戶態(tài)復制句柄數據結構到內核態(tài)),讓操作系統(tǒng)內核去查詢這些套接字上是否有事件發(fā)生,輪詢完后,再將句柄數據復制到用戶態(tài),讓服務器應用程序輪詢處理已發(fā)生的網絡事件,這一過程資源消耗較大,因此,select/poll一般只能處理幾千的并發(fā)連接。

epoll的設計和實現(xiàn)與select完全不同。epoll通過在Linux內核中申請一個簡易的文件系統(tǒng)(文件系統(tǒng)一般用什么數據結構實現(xiàn)?B+樹)。把原先的select/poll調用分成了3個部分:

1)調用epoll_create()建立一個epoll對象(在epoll文件系統(tǒng)中為這個句柄對象分配資源)

2)調用epoll_ctl向epoll對象中添加這100萬個連接的套接字

3)調用epoll_wait收集發(fā)生的事件的連接

如此一來,要實現(xiàn)上面說是的場景,只需要在進程啟動時建立一個epoll對象,然后在需要的時候向這個epoll對象中添加或者刪除連接。同時,epoll_wait的效率也非常高,因為調用epoll_wait時,并沒有一股腦的向操作系統(tǒng)復制這100萬個連接的句柄數據,內核也不需要去遍歷全部的連接。

epoll實現(xiàn)機制

當某一進程調用epoll_create方法時,Linux內核會創(chuàng)建一個eventpoll結構體,這個結構體中有兩個成員與epoll的使用方式密切相關。eventpoll結構體如下所示:

struct eventpoll{ .... /*紅黑樹的根節(jié)點,這顆樹中存儲著所有添加到epoll中的需要監(jiān)控的事件*/ struct rb_root rbr; /*雙鏈表中則存放著將要通過epoll_wait返回給用戶的滿足條件的事件*/ struct list_head rdlist; ....};

每一個epoll對象都有一個獨立的eventpoll結構體,用于存放通過epoll_ctl方法向epoll對象中添加進來的事件。這些事件都會掛載在紅黑樹中,如此,重復添加的事件就可以通過紅黑樹而高效的識別出來(紅黑樹的插入時間效率是lgn,其中n為樹的高度)。

而所有添加到epoll中的事件都會與設備(網卡)驅動程序建立回調關系,也就是說,當相應的事件發(fā)生時會調用這個回調方法。這個回調方法在內核中叫ep_poll_callback,它會將發(fā)生的事件添加到rdlist雙鏈表中。

在epoll中,對于每一個事件,都會建立一個epitem結構體,如下所示:

struct epitem{ struct rb_node rbn;//紅黑樹節(jié)點 struct list_head rdllink;//雙向鏈表節(jié)點 struct epoll_filefd ffd; //事件句柄信息 struct eventpoll *ep; //指向其所屬的eventpoll對象 struct epoll_event event; //期待發(fā)生的事件類型}

當調用epoll_wait檢查是否有事件發(fā)生時,只需要檢查eventpoll對象中的rdlist雙鏈表中是否有epitem元素即可。如果rdlist不為空,則把發(fā)生的事件復制到用戶態(tài),同時將事件數量返回給用戶。

linux,epoll機制,linux的epoll機制,pipe,消息機制,epoll,使用

通過紅黑樹和雙鏈表數據結構,并結合回調機制,造就了epoll的高效。

epoll的接口

1.epoll_create

創(chuàng)建epoll句柄
函數聲明:int epoll_create(int size)

參數:size用來告訴內核這個監(jiān)聽的數目一共有多大。
返回值:返回創(chuàng)建了的epoll句柄。
當創(chuàng)建好epoll句柄后,它就是會占用一個fd值,在linux下如果查看/proc/進程id/fd/,是能夠看到這個fd的,所以在使用完epoll后,必須調用close()關閉,否則可能導致fd被耗盡。

2.epoll_ctl

將被監(jiān)聽的描述符添加到epoll句柄或從epool句柄中刪除或者對監(jiān)聽事件進行修改。
函數申明:int epoll_ctl(int epfd, int op, int fd, struct epoll_event*event);

參數:
epfd: epoll_create()的返回值
op:表示要進行的操作,其值分別為:
EPOLL_CTL_ADD: 注冊新的fd到epfd中;
EPOLL_CTL_MOD: 修改已經注冊的fd的監(jiān)聽事件;
EPOLL_CTL_DEL: 從epfd中刪除一個fd;
fd:需要操作/監(jiān)聽的文件句柄
event:是告訴內核需要監(jiān)聽什么事件,struct epoll_event如下:

typedef union epoll_data { void *ptr; int fd; __uint32_t u32; __uint64_t u64; } epoll_data_t; struct epoll_event { __uint32_t events; /* Epoll events */ epoll_data_t data; /* User data variable */ }; 

events可以是以下幾個宏的集合:

EPOLLIN:觸發(fā)該事件,表示對應的文件描述符上有可讀數據。(包括對端SOCKET正常關閉);
EPOLLOUT:觸發(fā)該事件,表示對應的文件描述符上可以寫數據;
EPOLLPRI:表示對應的文件描述符有緊急的數據可讀(這里應該表示有帶外數據到來);
EPOLLERR:表示對應的文件描述符發(fā)生錯誤;
EPOLLHUP: 表示對應的文件描述符被掛斷;
EPOLLET:將EPOLL設為邊緣觸發(fā)(EdgeTriggered)模式,這是相對于水平觸發(fā)(Level Triggered)來說的。
EPOLLONESHOT: 只監(jiān)聽一次事件,當監(jiān)聽完這次事件之后,如果還需要繼續(xù)監(jiān)聽這個socket的話,需要再次把這個socket加入到EPOLL隊列里。

示例:

struct epoll_event ev;//設置與要處理的事件相關的文件描述符ev.data.fd=listenfd;//設置要處理的事件類型ev.events=EPOLLIN|EPOLLET;//注冊epoll事件epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev);

1.epoll_wait

等侍注冊在epfd上的socket fd的事件的發(fā)生,如果發(fā)生則將發(fā)生的sokct fd和事件類型放入到events數組中。
函數原型:int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);

參數:
epfd:由epoll_create 生成的epoll文件描述符
events:用于回傳代處理事件的數組
maxevents:每次能處理的最大事件數
timeout:等待I/O事件發(fā)生的超時毫秒數,-1相當于阻塞,0相當于非阻塞。一般用-1即可

epoll的工作模式

ET(EdgeTriggered):高速工作模式,只支持no_block(非阻塞模式)。在此模式下,當描述符從未就緒變?yōu)榫途w時,內核通過epoll告知。然后它會假設用戶知道文件描述符已經就緒,并且不會再為那個文件描述符發(fā)送更多的就緒通知,直到某些操作導致那個文件描述符不再為就緒狀態(tài)了。(觸發(fā)模式只在數據就緒時通知一次,若數據沒有讀完,下一次不會通知,直到有新的就緒數據)

LT(LevelTriggered):缺省工作方式,支持blocksocket和no_blocksocket。在LT模式下內核會告知一個文件描述符是否就緒了,然后可以對這個就緒的fd進行IO操作。如果不作任何操作,內核還是會繼續(xù)通知!若數據沒有讀完,內核也會繼續(xù)通知,直至設備數據為空為止!

示例說明:

1.我們已經把一個用來從管道中讀取數據的文件句柄(RFD)添加到epoll描述符
2. 這個時候從管道的另一端被寫入了2KB的數據
3. 調用epoll_wait(2),并且它會返回RFD,說明它已經準備好讀取操作
4. 然后我們讀取了1KB的數據
5. 調用epoll_wait(2)……

ET工作模式:

如果我們在第1步將RFD添加到epoll描述符的時候使用了EPOLLET標志,在第2步執(zhí)行了一個寫操作,第三步epoll_wait會返回同時通知的事件會銷毀。因為第4步的讀取操作沒有讀空文件輸入緩沖區(qū)內的數據,因此我們在第5步調用epoll_wait(2)完成后,是否掛起是不確定的。epoll工作在ET模式的時候,必須使用非阻塞套接口,以避免由于一個文件句柄的阻塞讀/阻塞寫操作把處理多個文件描述符的任務餓死。

只有當read(2)或者write(2)返回EAGAIN時(認為讀完)才需要掛起,等待。但這并不是說每次read()時都需要循環(huán)讀,直到讀到產生一個EAGAIN才認為此次事件處理完成,當read()返回的讀到的數據長度小于請求的數據長度時(即小于sizeof(buf)),就可以確定此時緩沖中已沒有數據了,也就可以認為此事讀事件已處理完成。

LT工作模式:

LT方式調用epoll接口的時候,它就相當于一個速度比較快的poll(2),并且無論后面的數據是否被使用,因此他們具有同樣的職能。

示例

/** file epollTest.c*/#include <stdio.h> #include <stdlib.h> #include <unistd.h> #include <errno.h> #include <sys/socket.h> #include <netdb.h> #include <fcntl.h> #include <sys/epoll.h> #include <string.h> #define MAXEVENTS 64 //函數: //功能:創(chuàng)建和綁定一個TCP socket //參數:端口 //返回值:創(chuàng)建的socket static int create_and_bind (char *port) {  struct addrinfo hints;  struct addrinfo *result, *rp;  int s, sfd;  memset (&hints, 0, sizeof (struct addrinfo));  hints.ai_family = AF_UNSPEC;  /* Return IPv4 and IPv6 choices */  hints.ai_socktype = SOCK_STREAM; /* We want a TCP socket */  hints.ai_flags = AI_PASSIVE;  /* All interfaces */  s = getaddrinfo (NULL, port, &hints, &result);  if (s != 0)  {   fprintf (stderr, "getaddrinfo: %s/n", gai_strerror (s));   return -1;  }  for (rp = result; rp != NULL; rp = rp->ai_next)  {   sfd = socket (rp->ai_family, rp->ai_socktype, rp->ai_protocol);   if (sfd == -1)   continue;   s = bind (sfd, rp->ai_addr, rp->ai_addrlen);   if (s == 0)   {    /* We managed to bind successfully! */    break;   }   close (sfd);  }  if (rp == NULL)  {   fprintf (stderr, "Could not bind/n");   return -1;  }  freeaddrinfo (result);  return sfd; } //函數 //功能:設置socket為非阻塞的 static int make_socket_non_blocking (int sfd) {  int flags, s;  //得到文件狀態(tài)標志  flags = fcntl (sfd, F_GETFL, 0);  if (flags == -1)  {   perror ("fcntl");   return -1;  }  //設置文件狀態(tài)標志  flags |= O_NONBLOCK;  s = fcntl (sfd, F_SETFL, flags);  if (s == -1)  {   perror ("fcntl");   return -1;  }  return 0; } //端口由參數argv[1]指定 int main (int argc, char *argv[]) {  int sfd, s;  int efd;  struct epoll_event event;  struct epoll_event *events;  if (argc != 2)  {   fprintf (stderr, "Usage: %s [port]/n", argv[0]);   exit (EXIT_FAILURE);  }  sfd = create_and_bind (argv[1]);  if (sfd == -1)  abort ();  s = make_socket_non_blocking (sfd);  if (s == -1)  abort ();  s = listen (sfd, SOMAXCONN);  if (s == -1)  {   perror ("listen");   abort ();  }  //除了參數size被忽略外,此函數和epoll_create完全相同  efd = epoll_create1 (0);  if (efd == -1)  {   perror ("epoll_create");   abort ();  }  event.data.fd = sfd;  event.events = EPOLLIN | EPOLLET;//讀入,邊緣觸發(fā)方式  s = epoll_ctl (efd, EPOLL_CTL_ADD, sfd, &event);  if (s == -1)  {   perror ("epoll_ctl");   abort ();  }  /* Buffer where events are returned */  events = calloc (MAXEVENTS, sizeof event);  /* The event loop */  while (1)  {   int n, i;   n = epoll_wait (efd, events, MAXEVENTS, -1);   for (i = 0; i < n; i++)   {    if ((events[i].events & EPOLLERR) ||     (events[i].events & EPOLLHUP) ||     (!(events[i].events & EPOLLIN)))    {     /* An error has occured on this fd, or the socket is not      ready for reading (why were we notified then?) */     fprintf (stderr, "epoll error/n");     close (events[i].data.fd);     continue;    }    else if (sfd == events[i].data.fd)    {     /* We have a notification on the listening socket, which      means one or more incoming connections. */     while (1)     {      struct sockaddr in_addr;      socklen_t in_len;      int infd;      char hbuf[NI_MAXHOST], sbuf[NI_MAXSERV];      in_len = sizeof in_addr;      infd = accept (sfd, &in_addr, &in_len);      if (infd == -1)      {       if ((errno == EAGAIN) ||        (errno == EWOULDBLOCK))       {        /* We have processed all incoming         connections. */        break;       }       else       {        perror ("accept");        break;       }      }          //將地址轉化為主機名或者服務名      s = getnameinfo (&in_addr, in_len,          hbuf, sizeof hbuf,          sbuf, sizeof sbuf,          NI_NUMERICHOST | NI_NUMERICSERV);//flag參數:以數字名返回          //主機地址和服務地址      if (s == 0)      {       printf("Accepted connection on descriptor %d "         "(host=%s, port=%s)/n", infd, hbuf, sbuf);      }      /* Make the incoming socket non-blocking and add it to the       list of fds to monitor. */      s = make_socket_non_blocking (infd);      if (s == -1)      abort ();      event.data.fd = infd;      event.events = EPOLLIN | EPOLLET;      s = epoll_ctl (efd, EPOLL_CTL_ADD, infd, &event);      if (s == -1)      {       perror ("epoll_ctl");       abort ();      }     }     continue;    }    else    {     /* We have data on the fd waiting to be read. Read and      display it. We must read whatever data is available      completely, as we are running in edge-triggered mode      and won't get a notification again for the same      data. */     int done = 0;     while (1)     {      ssize_t count;      char buf[512];      count = read (events[i].data.fd, buf, sizeof(buf));      if (count == -1)      {       /* If errno == EAGAIN, that means we have read all        data. So go back to the main loop. */       if (errno != EAGAIN)       {        perror ("read");        done = 1;       }       break;      }      else if (count == 0)      {       /* End of file. The remote has closed the        connection. */       done = 1;       break;      }      /* Write the buffer to standard output */      s = write (1, buf, count);      if (s == -1)      {       perror ("write");       abort ();      }     }     if (done)     {      printf ("Closed connection on descriptor %d/n",        events[i].data.fd);      /* Closing the descriptor will make epoll remove it       from the set of descriptors which are monitored. */      close (events[i].data.fd);     }    }   }  }  free (events);  close (sfd);  return EXIT_SUCCESS; }

代碼編譯后,./epollTest 8888 ,在另外一個終端中執(zhí)行
telnet 192.168.1.161 8888 ,192.168.1.161為執(zhí)行測試程序的ip。在telnet終端敲入任何字符敲入Enter后,會在測試終端顯示敲入的字符。

總結

以上就是本文關于linux epoll機制詳解的全部內容,希望對大家有所幫助。感興趣的朋友可以繼續(xù)參閱本站其他相關專題,如有不足之處,歡迎留言指出。感謝朋友們對本站的支持!


發(fā)表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發(fā)表
主站蜘蛛池模板: 伊人午夜视频 | 国产精品一二区 | 国产视频软件在线 | 99国语露脸久久精品国产ktv | 人禽l交免费视频观看 视频 | 美女黄页网站免费进入 | 久久精品中文字幕一区二区 | 精品99在线视频 | 国产一级二级毛片 | 国内精品久久久久久2021浪潮 | 久草在线高清 | av在线免费播放 | 亚洲一区在线免费视频 | 嫩呦国产一区二区三区av | 91精品国产乱码久久久久 | 午夜激情视频免费 | 96视频在线免费观看 | 久久久成人999亚洲区美女 | 久久久久久久国产视频 | 国产精品一品二区三区四区18 | 中国杭州少妇xxxx做受 | 综合网日日天干夜夜久久 | 国产成人精品区一区二区不卡 | 亚洲网站在线观看视频 | 久久精品日韩一区 | 欧美成人一级片 | 亚洲白嫩在线观看 | 校花被肉干高h潮不断 | 成人精品视频网站 | 国产在线观看一区二区三区 | 国产免费网站视频 | 久久久久久久免费看 | sese在线视频 | 日韩精品中文字幕一区二区三区 | 欧美日韩成人一区二区 | 久久男人 | 亚洲一二三久久 | 亚洲欧美一区二区三区在线观看 | 日韩视频中文 | 成码无人av片在线观看网站 | 久久久久久久久久久久久久久久久久 |