淺談 Boost.Asio 的多線程模型


Boost.Asio 有兩種支持多線程的方式,第一種方式比較簡單:在多線程的場景下,每個線程都持有一個io_service,並且每個線程都調用各自的io_servicerun()方法。
  另一種支持多線程的方式:全局只分配一個io_service,並且讓這個io_service在多個線程之間共享,每個線程都調用全局的io_servicerun()方法。

每個線程一個 I/O Service

  讓我們先分析第一種方案:在多線程的場景下,每個線程都持有一個io_service (通常的做法是,讓線程數和 CPU 核心數保持一致)。那么這種方案有什么特點呢?

  • 在多核的機器上,這種方案可以充分利用多個 CPU 核心。
  • 某個 socket 描述符並不會在多個線程之間共享,所以不需要引入同步機制。
  • 在 event handler 中不能執行阻塞的操作,否則將會阻塞掉io_service所在的線程。

  下面我們實現了一個AsioIOServicePool,封裝了線程池的創建操作:

 1 class AsioIOServicePool
 2 {
 3 public:
 4     using IOService = boost::asio::io_service;
 5     using Work = boost::asio::io_service::work;
 6     using WorkPtr = std::unique_ptr<Work>;
 7     AsioIOServicePool(std::size_t size = std::thread::hardware_concurrency())
 8         : ioServices_(size),
 9           works_(size),
10           nextIOService_(0)
11     {
12         for (std::size_t i = 0; i < size; ++i)
13         {
14             works_[i] = std::unique_ptr<Work>(new Work(ioServices_[i]));
15         }
16         for (std::size_t i = 0; i < ioServices_.size(); ++i)
17         {
18             threads_.emplace_back([this, i] ()
19                                   {
20                                       ioServices_[i].run();
21                                   });
22         }
23     }
24     AsioIOServicePool(const AsioIOServicePool &) = delete;
25     AsioIOServicePool &operator=(const AsioIOServicePool &) = delete;
26     // 使用 round-robin 的方式返回一個 io_service
27     boost::asio::io_service &getIOService()
28     {
29         auto &service = ioServices_[nextIOService_++];
30         if (nextIOService_ == ioServices_.size())
31         {
32             nextIOService_ = 0;
33         }
34         return service;
35     }
36     void stop()
37     {
38         for (auto &work: works_)
39         {
40             work.reset();
41         }
42         for (auto &t: threads_)
43         {
44             t.join();
45         }
46     }
47 private:
48     std::vector<IOService>       ioServices_;
49     std::vector<WorkPtr>         works_;
50     std::vector<std::thread>     threads_;
51     std::size_t                  nextIOService_;
52 };

AsioIOServicePool使用起來也很簡單:

 1 std::mutex mtx;             // protect std::cout
 2 AsioIOServicePool pool;
 3  
 4 boost::asio::steady_timer timer{pool.getIOService(), std::chrono::seconds{2}};
 5 timer.async_wait([&mtx] (const boost::system::error_code &ec)
 6                   {
 7                       std::lock_guard<std::mutex> lock(mtx);
 8                       std::cout << "Hello, World! " << std::endl;
 9                   });
10 pool.stop();

一個 I/O Service 與多個線程

  另一種方案則是先分配一個全局io_service,然后開啟多個線程,每個線程都調用這個io_servicerun()方法。這樣,當某個異步事件完成時,io_service就會將相應的 event handler 交給任意一個線程去執行。
  然而這種方案在實際使用中,需要注意一些問題:

  • 在 event handler 中允許執行阻塞的操作 (例如數據庫查詢操作)。
  • 線程數可以大於 CPU 核心數,譬如說,如果需要在 event handler 中執行阻塞的操作,為了提高程序的響應速度,這時就需要提高線程的數目。
  • 由於多個線程同時運行事件循環(event loop),所以會導致一個問題:即一個 socket 描述符可能會在多個線程之間共享,容易出現競態條件 (race condition)。譬如說,如果某個 socket 的可讀事件很快發生了兩次,那么就會出現兩個線程同時讀同一個 socket 的問題 (可以使用strand解決這個問題)。

  下面實現了一個線程池,在每個 worker 線程中執行io_servicerun()方法:

 1 class AsioThreadPool
 2 {
 3 public:
 4     AsioThreadPool(int threadNum = std::thread::hardware_concurrency())
 5         : work_(new boost::asio::io_service::work(service_))
 6     {
 7         for (int i = 0; i < threadNum; ++i)
 8         {
 9             threads_.emplace_back([this] () { service_.run(); });
10         }
11     }
12     AsioThreadPool(const AsioThreadPool &) = delete;
13     AsioThreadPool &operator=(const AsioThreadPool &) = delete;
14     boost::asio::io_service &getIOService()
15     {
16         return service_;
17     }
18     void stop()
19     {
20         work_.reset();
21         for (auto &t: threads_)
22         {
23             t.join();            
24         }        
25     }
26 private:
27     boost::asio::io_service service_;
28     std::unique_ptr<boost::asio::io_service::work> work_;
29     std::vector<std::thread> threads_;
30 };

無鎖的同步方式

  要怎樣解決前面提到的競態條件呢?Boost.Asio 提供了io_service::strand:如果多個 event handler 通過同一個 strand 對象分發 (dispatch),那么這些 event handler 就會保證順序地執行。
  例如,下面的例子使用 strand,所以不需要使用互斥鎖保證同步了 :

 1 AsioThreadPool pool(4);    // 開啟 4 個線程
 2 boost::asio::steady_timer timer1{pool.getIOService(), std::chrono::seconds{1}};
 3 boost::asio::steady_timer timer2{pool.getIOService(), std::chrono::seconds{1}};
 4 int value = 0;
 5 boost::asio::io_service::strand strand{pool.getIOService()};    
 6     
 7 timer1.async_wait(strand.wrap([&value] (const boost::system::error_code &ec)
 8                               {
 9                                   std::cout << "Hello, World! " << value++ << std::endl;
10                               }));
11 timer2.async_wait(strand.wrap([&value] (const boost::system::error_code &ec)
12                               {
13                                   std::cout << "Hello, World! " << value++ << std::endl;
14                               }));
15 pool.stop();

多線程 Echo Server

  下面的EchoServer可以在多線程中使用,它使用asio::strand來解決前面提到的競態問題:

 1 class TCPConnection : public std::enable_shared_from_this<TCPConnection> 
 2 {
 3 public:
 4     TCPConnection(boost::asio::io_service &io_service)
 5         : socket_(io_service),
 6           strand_(io_service)
 7     { }
 8     
 9     tcp::socket &socket() {  return socket_;  }
10     void start() {  doRead();  }
11     
12 private:
13     void doRead()
14     {
15         auto self = shared_from_this();
16         socket_.async_read_some(
17             boost::asio::buffer(buffer_, buffer_.size()),
18             strand_.wrap([this, self](boost::system::error_code ec, 
19                                       std::size_t bytes_transferred)
20                          {
21                              if (!ec) {  doWrite(bytes_transferred);  }
22                          }));
23     }
24     void doWrite(std::size_t length)
25     {
26         auto self = shared_from_this();
27         boost::asio::async_write(
28             socket_, boost::asio::buffer(buffer_, length),
29             strand_.wrap([this, self](boost::system::error_code ec,
30                                       std::size_t /* bytes_transferred */)
31                          {
32                              if (!ec) {  doRead();  }
33                          }));
34     }
35 private:
36     tcp::socket socket_;
37     boost::asio::io_service::strand strand_;
38     std::array<char, 8192> buffer_;
39 };
40 class EchoServer
41 {
42 public:
43     EchoServer(boost::asio::io_service &io_service, unsigned short port)
44         : io_service_(io_service),
45           acceptor_(io_service, tcp::endpoint(tcp::v4(), port))
46     {
47         doAccept();
48     }
49     void doAccept()
50     {
51         auto conn = std::make_shared<TCPConnection>(io_service_);
52         acceptor_.async_accept(conn->socket(),
53                                [this, conn](boost::system::error_code ec)
54                                {
55                                    if (!ec) {  conn->start();  }
56                                    this->doAccept();
57                                });
58     }
59     
60 private: 
61     boost::asio::io_service &io_service_;
62     tcp::acceptor acceptor_;
63 };

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM