linux epoll 開發指南-【ffrpc源碼解析】


摘要

關於epoll的問題很早就像寫文章講講自己的看法,但是由於ffrpc一直沒有完工,所以也就拖下來了。Epoll主要在服務器編程中使用,本文主要探討服務器程序中epoll的使用技巧。Epoll一般和異步io結合使用,故本文討論基於以下應用場合:

  •   主要討論服務器程序中epoll的使用,主要涉及tcp socket的相關api。
  •   Tcp socket 為異步模式,包括socket的異步讀寫,以及監聽的異步操作。
  •   本文不會過多討論API的細節,而是專注流程與設計。

Epoll 的io模型

Epoll是為異步io操作而設計的,epoll中IO事件被分為read事件和write事件,如果大家對於linux的驅動模塊或者linux io 模型有接觸的話,就會理解起來更容易。Linux中IO操作被抽象為read、write、close、ctrl幾個操作,所以epoll只提供read、write、error事件,是和linux的io模型是統一的。

  •   當epoll通知read事件時,可以調用io系統調用read讀取數據
  •   當epoll通知write事件時,可以調用io系統調用write發送數據
  •   當error事件時,可以close回收資源
  •   Ctrl相關的接口則用來設置socket的非阻塞選項等。

為什么要了解epoll的io模型呢,本文認為,某些情況下epoll操作的代碼的復雜性是由於代碼中的模型(或者類設計)與epoll io模型不匹配造成的。換句話說,如果我們的編碼模型和epoll io模型匹配,那么非阻塞socket的編碼就會很簡單、清晰。

按照epoll模型構建的類關系為:

//! 文件描述符相關接口
typedef int socket_fd_t;
class fd_i
{
public:
    virtual ~fd_i(){}

    virtual socket_fd_t socket()          = 0;
    virtual int handle_epoll_read()  = 0;
    virtual int handle_epoll_write() = 0;
    virtual int handle_epoll_del()          = 0;

    virtual void close()                          = 0;
};
int epoll_impl_t::event_loop()
{
    int i = 0, nfds = 0;
    struct epoll_event ev_set[EPOLL_EVENTS_SIZE];

    do
    {
        nfds  = ::epoll_wait(m_efd, ev_set, EPOLL_EVENTS_SIZE, EPOLL_WAIT_TIME);

        if (nfds < 0 && EINTR == errno)
        {
            nfds = 0;
            continue;
        }
        for (i = 0; i < nfds; ++i)
        {
            epoll_event& cur_ev = ev_set[i];
            fd_i* fd_ptr            = (fd_i*)cur_ev.data.ptr;
            if (cur_ev.data.ptr == this)//! iterupte event
            {
                if (false == m_running)
                {
                    return 0;
                }

                //! 刪除那些已經出現error的socket 對象
                fd_del_callback();
                continue;
            }
    
            if (cur_ev.events & (EPOLLIN | EPOLLPRI))
            {
                fd_ptr->handle_epoll_read();
            }

            if(cur_ev.events & EPOLLOUT)
            {
                fd_ptr->handle_epoll_write();
            }

            if (cur_ev.events & (EPOLLERR | EPOLLHUP))
            {
                fd_ptr->close();
            }
        }
        
    }while(nfds >= 0);

    return 0;
}

 

Epoll的LT模式和ET模式的比較

         先簡單比較一下level trigger 和 edge trigger 模式的不同。

LT模式的特點是:

  •   若數據可讀,epoll返回可讀事件
  •   若開發者沒有把數據完全讀完,epoll會不斷通知數據可讀,直到數據全部被讀取。
  •   若socket可寫,epoll返回可寫事件,而且是只要socket發送緩沖區未滿,就一直通知可寫事件。
  •   優點是對於read操作比較簡單,只要有read事件就讀,讀多讀少都可以。
  •   缺點是write相關操作較復雜,由於socket在空閑狀態發送緩沖區一定是不滿的,故若socket一直在epoll wait列表中,則epoll會一直通知write事件,所以必須保證沒有數據要發送的時候,要把socket的write事件從epoll wait列表中刪除。而在需要的時候在加入回去,這就是LT模式的最復雜部分。

ET模式的特點是:

  •   若socket可讀,返回可讀事件
  •   若開發者沒有把所有數據讀取完畢,epoll不會再次通知epoll read事件,也就是說存在一種隱患,如果開發者在讀到可讀事件時,如果沒有全部讀取所有數據,那么可能導致epoll在也不會通知該socket的read事件。(其實這個問題並沒有聽上去難,參見下文)。
  •   若發送緩沖區未滿,epoll通知write事件,直到開發者填滿發送緩沖區,epoll才會在下次發送緩沖區由滿變成未滿時通知write事件。
  •   ET模式下,只有socket的狀態發生變化時才會通知,也就是讀取緩沖區由無數據到有數據時通知read事件,發送緩沖區由滿變成未滿通知write事件。
  •   缺點是epoll read事件觸發時,必須保證socket的讀取緩沖區數據全部讀完(事實上這個要求很容易達到)
  •   優點:對於write事件,發送緩沖區由滿到未滿時才會通知,若無數據可寫,忽略該事件,若有數據可寫,直接寫。Socket的write事件可以一直發在epoll的wait列表。Man epoll中我們知道,當向socket寫數據,返回的值小於傳入的buffer大小或者write系統調用返回EWouldBlock時,表示發送緩沖區已滿。

讓我們換一個角度來理解ET模式,事實上,epoll的ET模式其實就是socket io完全狀態機。

先來看epoll中read 的狀態圖:

 

 

當socket由不可讀變成可讀時,epoll的ET模式返回read 事件。對於read 事件,開發者需要保證把讀取緩沖區數據全部讀出,man epoll可知:

  •   Read系統調用返回EwouldBlock,表示讀取緩沖區數據全部讀出
  •   Read系統調用返回的數值小於傳入的buffer參數,表示讀取緩沖區全部讀出。

示例代碼

int socket_impl_t:: handle_epoll_read ()
{
    if (is_open())
    {
        int nread = 0;
        char recv_buffer[RECV_BUFFER_SIZE];
        do
        {
            nread = ::read(m_fd, recv_buffer, sizeof(recv_buffer) - 1);
            if (nread > 0)
            {
                recv_buffer[nread] = '\0';
                m_sc->handle_read(this, recv_buffer, size_t(nread));
                if (nread < int(sizeof(recv_buffer) - 1))
                {
                        break;//! equal EWOULDBLOCK
                }
            }
            else if (0 == nread) //! eof
            {
                this->close();
                return -1;
            }
            else
            {
                if (errno == EINTR)
                {
                    continue;
                }
                else if (errno == EWOULDBLOCK)
                {
                    break;
                }
                else
                {
                    this->close();
                    return -1;
                }
            }
        } while(1);
    }
    return 0;
}
 

再來看write 的狀態機:

 

需要讀者注意的是,socket模式是可寫的,因為發送緩沖區初始時空的。故應用層有數據要發送時,直接調用write系統調用發送數據,若write系統調用返回EWouldBlock則表示socket變為不可寫,或者write系統調用返回的數值小於傳入的buffer參數的大小,這時需要把未發送的數據暫存在應用層待發送列表中,等待epoll返回write事件,再繼續發送應用層待發送列表中的數據,同樣若應用層待發送列表中的數據沒有一次性發完,那么繼續等待epoll返回write事件,如此循環往復。所以可以反推得到如下結論,若應用層待發送列表有數據,則該socket一定是不可寫狀態,那么這時候要發送新數據直接追加到待發送列表中。若待發送列表為空,則表示socket為可寫狀態,則可以直接調用write系統調用發送數據。總結如下:

  •   當發送數據時,若應用層待發送列表有數據,則將要發送的數據追加到待發送列表中。否則直接調用write系統調用。
  •   Write系統調用發送數據時,檢測write返回值,若返回數值>0且小於傳入的buffer參數大小,或返回EWouldBlock錯誤碼,表示,發送緩沖區已滿,將未發送的數據追加到待發送列表
  •   Epoll返回write事件后,檢測待發送列表是否有數據,若有數據,依次嘗試發送指導數據全部發送完畢或者發送緩沖區被填滿。

示例代碼:

void socket_impl_t::send_impl(const string& src_buff_)
{
    string buff_ = src_buff_;

    if (false == is_open() || m_sc->check_pre_send(this, buff_))
    {
        return;
    }
    //! socket buff is full, cache the data
    if (false == m_send_buffer.empty())
    {
        m_send_buffer.push_back(buff_);
        return;
    }

    string left_buff;
    int ret = do_send(buff_, left_buff);

    if (ret < 0)
    {
        this ->close();
    }
    else if (ret > 0)
    {
        m_send_buffer.push_back(left_buff);
    }
    else
    {
        //! send ok
        m_sc->handle_write_completed(this);
    }
}
int socket_impl_t:: handle_epoll_write ()
{
    int ret = 0;
    string left_buff;

    if (false == is_open() || true == m_send_buffer.empty())
    {
        return 0;
    }

    do
    {
        const string& msg = m_send_buffer.front();
        ret = do_send(msg, left_buff);

        if (ret < 0)
        {
            this ->close();
            return -1;
        }
        else if (ret > 0)
        {
            m_send_buffer.pop_front();
            m_send_buffer.push_front(left_buff);
            return 0;
        }
        else
        {
            m_send_buffer.pop_front();
        }
    } while (false == m_send_buffer.empty());

    m_sc->handle_write_completed(this);
    return 0;
}
 

總結

  LT模式主要是讀操作比較簡單,但是對於ET模式並沒有優勢,因為將讀取緩沖區數據全部讀出並不是難事。而write操作,ET模式則流程非常的清晰,按照完全狀態機來理解和實現就變得非常容易。而LT模式的write操作則復雜多了,要頻繁的維護epoll的wail列表。

      在代碼編寫時,把epoll ET當成狀態機,當socket被創建完成(accept和connect系統調用返回的socket)時加入到epoll列表,之后就不用在從中刪除了。為什么呢?man epoll中的FAQ告訴我們,當socket被close掉后,其自動從epoll中刪除。對於監聽socket簡單說幾點注意事項:

  •   監聽socket的write事件忽略
  •   監聽socket的read事件表示有新連接,調用accept接受連接,直到返回EWouldBlock。
  •   對於Error事件,有些錯誤是可以接受的錯誤,比如文件描述符用光的錯誤

示例代碼:

int acceptor_impl_t::handle_epoll_read()
{
    struct sockaddr_storage addr;
    socklen_t addrlen = sizeof(addr);

    int new_fd = -1;
    do
    {
        if ((new_fd = ::accept(m_listen_fd, (struct sockaddr *)&addr, &addrlen)) == -1)
        {
            if (errno == EWOULDBLOCK)
            {
                return 0;
            }
            else if (errno == EINTR || errno == EMFILE || errno == ECONNABORTED || errno == ENFILE ||
                        errno == EPERM || errno == ENOBUFS || errno == ENOMEM)
            {
                perror("accept");//! if too many open files occur, need to restart epoll event
                m_epoll->mod_fd(this);
                return 0;
            }
            perror("accept");
            return -1;
        }

        socket_i* socket = create_socket(new_fd);
        socket->open();
    } while (true);
    return 0;
}
 
        

GitHub :https://github.com/fanchy/FFRPC

ffrpc 介紹: http://www.cnblogs.com/zhiranok/p/ffrpc_summary.html

 故,綜上所述,服務器程序中推薦使用epoll 的ET 模式!!!!

更多精彩文章 http://h2cloud.org


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM