1. 程式人生 > >libevent入門教程

libevent入門教程

首先給出官方文件吧: http://libevent.org ,首頁有個Programming with Libevent,裡面是一節一節的介紹libevent,但是感覺資訊量太大了,而且還是英文的-。-(當然,如果想好好用libevent,看看還是很有必要的),還有個Reference,大致就是對各個版本的libevent使用doxgen生成的文件,用來查函式原型和基本用法什麼的。


下面假定已經學習過基本的socket程式設計(socket,bind,listen,accept,connect,recv,send,close),並且對非同步/callback有基本認識。

基本的socket程式設計是阻塞/同步的,每個操作除非已經完成或者出錯才會返回,這樣對於每一個請求,要使用一個執行緒或者單獨的程序去處理,系統資源沒法支撐大量的請求(所謂c10k problem?),例如記憶體:預設情況下每個執行緒需要佔用2~8M的棧空間。posix定義了可以使用非同步的select系統呼叫,但是因為其採用了輪詢的方式來判斷某個fd是否變成active,效率不高[O(n)],連線數一多,也還是撐不住。於是各系統分別提出了基於非同步/callback的系統呼叫,例如Linux的epoll,BSD的kqueue,Windows的IOCP。由於在核心層面做了支援,所以可以用O(1)的效率查詢到active的fd。基本上,libevent就是對這些高效IO的封裝,提供統一的API,簡化開發。


libevent大概是這樣的:

    預設情況下是單執行緒的(可以配置成多執行緒,如果有需要的話),每個執行緒有且只有一個event_base,對應一個struct event_base結構體(以及附於其上的事件管理器),用來schedule託管給它的一系列event,可以和作業系統的程序管理類比,當然,要更簡單一點。當一個事件發生後,event_base會在合適的時間(不一定是立即)去呼叫繫結在這個事件上的函式(傳入一些預定義的引數,以及在繫結時指定的一個引數),直到這個函式執行完,再返回schedule其他事件。

  1. //建立一個event_base
  2. struct event_base *base = event_base_new();  
  3. assert(base != NULL);  


    event_base內部有一個迴圈,迴圈阻塞在epoll/kqueue等系統呼叫上,直到有一個/一些事件發生,然後去處理這些事件。當然,這些事件要被繫結在這個event_base上。每個事件對應一個struct event,可以是監聽一個fd或者POSIX訊號量之類(這裡只講fd了,其他的看manual吧)。struct event使用event_new來建立和繫結,使用event_add來啟用:

  1. //建立並繫結一個event
  2. struct event *listen_event;  
  3. //引數:event_base, 監聽的fd,事件型別及屬性,繫結的回撥函式,給回撥函式的引數
  4. listen_event = event_new(base, listener, EV_READ|EV_PERSIST, callback_func, (void*)base);  
  5. //引數:event,超時時間(struct timeval *型別的,NULL表示無超時設定)
  6. event_add(listen_event, NULL);  

    注:libevent支援的事件及屬性包括(使用bitfield實現,所以要用 | 來讓它們合體)
    (a) EV_TIMEOUT: 超時
    (b) EV_READ: 只要網路緩衝中還有資料,回撥函式就會被觸發
    (c) EV_WRITE: 只要塞給網路緩衝的資料被寫完,回撥函式就會被觸發
    (d) EV_SIGNAL: POSIX訊號量,參考manual吧
    (e) EV_PERSIST: 不指定這個屬性的話,回撥函式被觸發後事件會被刪除
    (f) EV_ET: Edge-Trigger邊緣觸發,參考EPOLL_ET


    然後需要啟動event_base的迴圈,這樣才能開始處理髮生的事件。迴圈的啟動使用event_base_dispatch,迴圈將一直持續,直到不再有需要關注的事件,或者是遇到event_loopbreak()/event_loopexit()函式。

  1. //啟動事件迴圈
  2. event_base_dispatch(base);  



    接下來關注下繫結到event的回撥函式callback_func:傳遞給它的是一個socket fd、一個event型別及屬性bit_field、以及傳遞給event_new的最後一個引數(去上面幾行回顧一下,把event_base給傳進來了,實際上更多地是分配一個結構體,把相關的資料都撂進去,然後丟給event_new,在這裡就能取得到了)。其原型是:

  1. typedefvoid(* event_callback_fn)(evutil_socket_t sockfd, short event_type, void *arg)  



    對於一個伺服器而言,上面的流程大概是這樣組合的:
    1. listener = socket(),bind(),listen(),設定nonblocking(POSIX系統中可使用fcntl設定,windows不需要設定,實際上libevent提供了統一的包裝evutil_make_socket_nonblocking)
    2. 建立一個event_base
    3. 建立一個event,將該socket託管給event_base,指定要監聽的事件型別,並繫結上相應的回撥函式(及需要給它的引數)。對於listener socket來說,只需要監聽EV_READ|EV_PERSIST
    4. 啟用該事件
    5. 進入事件迴圈
    ---------------
    6. (非同步) 當有client發起請求的時候,呼叫該回調函式,進行處理。

    問題:為什麼不在listen完馬上呼叫accept,獲得客戶端連線以後再丟給event_base呢?這個問題先想想噢。

    回撥函式要做什麼事情呢?當然是處理client的請求了。首先要accept,獲得一個可以與client通訊的sockfd,然後……呼叫recv/send嗎?錯!大錯特錯!如果直接呼叫recv/send的話,這個執行緒就阻塞在這個地方了,如果這個客戶端非常的陰險(比如一直不發訊息,或者網路不好,老是丟包),libevent就只能等它,沒法處理其他的請求了——所以應該建立一個新的event來託管這個sockfd。

    在老版本libevent上的實現,比較羅嗦[如果不想詳細瞭解的話,看下一部分]。
    對於伺服器希望先從client獲取資料的情況,大致流程是這樣的:
    1. 將這個sockfd設定為nonblocking
    2. 建立2個event:
        event_read,綁上sockfd的EV_READ|EV_PERSIST,設定回撥函式和引數(後面提到的struct)
        event_write,綁上sockfd的EV_WRITE|EV_PERSIST,設定回撥函式和引數(後面提到的struct)
    3. 啟用event_read事件
    ------
    4. (非同步) 等待event_read事件的發生, 呼叫相應的回撥函式。這裡麻煩來了:回撥函式用recv讀入的資料,不能直接用send丟給sockfd了事——因為sockfd是nonblocking的,丟給它的話,不能保證正確(為什麼呢?)。所以需要一個自己管理的快取用來儲存讀入的資料中(在accept以後就建立一個struct,作為第2步回撥函式的arg傳進來),在合適的時間(比如遇到換行符)啟用event_write事件【event_add(event_write, NULL)】,等待EV_WRITE事件的觸發
    ------
    5. (非同步) 當event_write事件的回撥函式被呼叫的時候,往sockfd寫入資料,然後刪除event_write事件【event_del(event_write)】,等待event_read事件的下一次執行。
    以上步驟比較晦澀,具體程式碼可參考官方文件裡面的【Example: A low-level ROT13 server with Libevent】


    由於需要自己管理緩衝區,且過程晦澀難懂,並且不兼容於Windows的IOCP,所以libevent2開始,提供了bufferevent這個神器,用來提供更加優雅、易用的API。struct bufferevent內建了兩個event(read/write)和對應的緩衝區【struct evbuffer *input, *output】,並提供相應的函式用來操作緩衝區(或者直接操作bufferevent)。每當有資料被讀入input的時候,read_cb函式被呼叫;每當output被輸出完的時候,write_cb被呼叫;在網路IO操作出現錯誤的情況(連線中斷、超時、其他錯誤),error_cb被呼叫。於是上一部分的步驟被簡化為:
    1. 設定sockfd為nonblocking
    2. 使用bufferevent_socket_new建立一個struct bufferevent *bev,關聯該sockfd,託管給event_base
    3. 使用bufferevent_setcb(bev, read_cb, write_cb, error_cb, (void *)arg)將EV_READ/EV_WRITE對應的函式
    4. 使用bufferevent_enable(bev, EV_READ|EV_WRITE|EV_PERSIST)來啟用read/write事件
    ------
    5. (非同步)
        在read_cb裡面從input讀取資料,處理完畢後塞到output裡(會被自動寫入到sockfd)
        在write_cb裡面(需要做什麼嗎?對於一個echo server來說,read_cb就足夠了)
        在error_cb裡面處理遇到的錯誤
    *. 可以使用bufferevent_set_timeouts(bev, struct timeval *READ, struct timeval *WRITE)來設定讀寫超時, 在error_cb裡面處理超時。
    *. read_cb和write_cb的原型是
        void read_or_write_callback(struct bufferevent *bev, void *arg)
      error_cb的原型是
        void error_cb(struct bufferevent *bev, short error, void *arg) //這個是event的標準回撥函式原型
      可以從bev中用libevent的API提取出event_base、sockfd、input/output等相關資料,詳情RTFM~


    於是程式碼簡化到只需要幾行的read_cb和error_cb函式即可:

  1. void read_cb(struct bufferevent *bev, void *arg) {  
  2.     char line[256];  
  3.     int n;  
  4.     evutil_socket_t fd = bufferevent_getfd(bev);  
  5.     while (n = bufferevent_read(bev, line, 256), n > 0)  
  6.         bufferevent_write(bev, line, n);  
  7. }  
  8. void error_cb(struct bufferevent *bev, short event, void *arg) {  
  9.     bufferevent_free(bev);  
  10. }  



    於是一個支援大併發量的echo server就成型了!下面附上無註釋的echo server原始碼,110行,多抄幾遍,就能完全弄懂啦!更復雜的例子參見官方文件裡面的【Example: A simpler ROT13 server with Libevent】

  1. #include <stdio.h>
  2. #include <stdlib.h>
  3. #include <errno.h>
  4. #include <assert.h>
  5. #include <event2/event.h>
  6. #include <event2/bufferevent.h>
  7. #define LISTEN_PORT 9999
  8. #define LISTEN_BACKLOG 32
  9. void do_accept(evutil_socket_t listener, short event, void *arg);  
  10. void read_cb(struct bufferevent *bev, void *arg);  
  11. void error_cb(struct bufferevent *bev, short event, void *arg);  
  12. void write_cb(struct bufferevent *bev, void *arg);  
  13. int main(int argc, char *argv[])  
  14. {  
  15.     int ret;  
  16.     evutil_socket_t listener;  
  17.     listener = socket(AF_INET, SOCK_STREAM, 0);  
  18.     assert(listener > 0);  
  19.     evutil_make_listen_socket_reuseable(listener);  
  20.     struct sockaddr_in sin;  
  21.     sin.sin_family = AF_INET;  
  22.     sin.sin_addr.s_addr = 0;  
  23.     sin.sin_port = htons(LISTEN_PORT);  
  24.     if (bind(listener, (struct sockaddr *)&sin, sizeof(sin)) < 0) {  
  25.         perror("bind");  
  26.         return 1;  
  27.     }  
  28.     if (listen(listener, LISTEN_BACKLOG) < 0) {  
  29.         perror("listen");  
  30.         return 1;  
  31.     }  
  32.     printf ("Listening...\n");  
  33.     evutil_make_socket_nonblocking(listener);  
  34.     struct event_base *base = event_base_new();  
  35.     assert(base != NULL);  
  36.     struct event *listen_event;  
  37.     listen_event = event_new(base, listener, EV_READ|EV_PERSIST, do_accept, (void*)base);  
  38.     event_add(listen_event, NULL);  
  39.     event_base_dispatch(base);  
  40.     printf("The End.");  
  41.     return 0;  
  42. }  
  43. void do_accept(evutil_socket_t listener, short event, void *arg)  
  44. {  
  45.     struct event_base *base = (struct event_base *)arg;  
  46.     evutil_socket_t fd;  
  47.     struct sockaddr_in sin;  
  48.     socklen_t slen;  
  49.     fd = accept(listener, (struct sockaddr *)&sin, &slen);  
  50.     if (fd < 0) {  
  51.         perror("accept");  
  52.         return;  
  53.     }  
  54.     if (fd > FD_SETSIZE) {  
  55.         perror("fd > FD_SETSIZE\n");  
  56.         return;  
  57.     }  
  58.     printf("ACCEPT: fd = %u\n", fd);  
  59.     struct bufferevent *bev = bufferevent_socket_new(base, fd, BEV_OPT_CLOSE_ON_FREE);  
  60.     bufferevent_setcb(bev, read_cb, NULL, error_cb, arg);  
  61.     bufferevent_enable(bev, EV_READ|EV_WRITE|EV_PERSIST);  
  62. }  
  63. void read_cb(struct bufferevent *bev,