Nodejs cluster模塊深入探究


由表及里

HTTP服務器用於響應來自客戶端的請求,當客戶端請求數逐漸增大時服務端的處理機制有多種,如tomcat的多線程、nginx的事件循環等。而對於node而言,由於其也采用事件循環和異步I/O機制,因此在高I/O並發的場景下性能非常好,但是由於單個node程序僅僅利用單核cpu,因此為了更好利用系統資源就需要fork多個node進程執行HTTP服務器邏輯,所以node內建模塊提供了child_process和cluster模塊。利用child_process模塊,我們可以執行shell命令,可以fork子進程執行代碼,也可以直接執行二進制文件;利用cluster模塊,使用node封裝好的API、IPC通道和調度機可以非常簡單的創建包括一個master進程下HTTP代理服務器 + 多個worker進程多個HTTP應用服務器的架構,並提供兩種調度子進程算法。本文主要針對cluster模塊講述node是如何實現簡介高效的服務集群創建和調度的。那么就從代碼進入本文的主題:

code1

const cluster = require('cluster');
const http = require('http');

if (cluster.isMaster) {

  let numReqs = 0;
  setInterval(() => {
    console.log(`numReqs = ${numReqs}`);
  }, 1000);

  function messageHandler(msg) {
    if (msg.cmd && msg.cmd === 'notifyRequest') {
      numReqs += 1;
    }
  }

  const numCPUs = require('os').cpus().length;
  for (let i = 0; i < numCPUs; i++) {
    cluster.fork();
  }

  for (const id in cluster.workers) {
    cluster.workers[id].on('message', messageHandler);
  }

} else {

  // Worker processes have a http server.
  http.Server((req, res) => {
    res.writeHead(200);
    res.end('hello world\n');

    process.send({ cmd: 'notifyRequest' });
  }).listen(8000);
}

主進程創建多個子進程,同時接受子進程傳來的消息,循環輸出處理請求的數量;

子進程創建http服務器,偵聽8000端口並返回響應。

泛泛的大道理誰都了解,可是這套代碼如何運行在主進程和子進程中呢?父進程如何向子進程傳遞客戶端的請求?多個子進程共同偵聽8000端口,會不會造成端口reuse error?每個服務器進程最大可有效支持多少並發量?主進程下的代理服務器如何調度請求? 這些問題,如果不深入進去便永遠只停留在寫應用代碼的層面,而且不了解cluster集群創建的多進程與使用child_process創建的進程集群的區別,也寫不出符合業務的最優代碼,因此,深入cluster還是有必要的。

cluster與net

cluster模塊與net模塊息息相關,而net模塊又和底層socket有聯系,至於socket則涉及到了系統內核,這樣便由表及里的了解了node對底層的一些優化配置,這是我們的思路。介紹前,筆者仔細研讀了node的js層模塊實現,在基於自身理解的基礎上詮釋上節代碼的實現流程,力圖做到清晰、易懂,如果有某些紕漏也歡迎讀者指出,只有在互相交流中才能收獲更多。

一套代碼,多次執行

很多人對code1代碼如何在主進程和子進程執行感到疑惑,怎樣通過cluster.isMaster判斷語句內的代碼是在主進程執行,而其他代碼在子進程執行呢?

其實只要你深入到了node源碼層面,這個問題很容易作答。cluster模塊的代碼只有一句:

module.exports = ('NODE_UNIQUE_ID' in process.env) ?
                  require('internal/cluster/child') :
                  require('internal/cluster/master');

只需要判斷當前進程有沒有環境變量“NODE_UNIQUE_ID”就可知道當前進程是否是主進程;而變量“NODE_UNIQUE_ID”則是在主進程fork子進程時傳遞進去的參數,因此采用cluster.fork創建的子進程是一定包含“NODE_UNIQUE_ID”的。

這里需要指出的是,必須通過cluster.fork創建的子進程才有NODE_UNIQUE_ID變量,如果通過child_process.fork的子進程,在不傳遞環境變量的情況下是沒有NODE_UNIQUE_ID的。因此,當你在child_process.fork的子進程中執行cluster.isMaster判斷時,返回 true。

主進程與服務器

code1中,並沒有在cluster.isMaster的條件語句中創建服務器,也沒有提供服務器相關的路徑、端口和fd,那么主進程中是否存在TCP服務器,有的話到底是什么時候怎么創建的?

相信大家在學習nodejs時閱讀的各種書籍都介紹過在集群模式下,主進程的服務器會接受到請求然后發送給子進程,那么問題就來到主進程的服務器到底是如何創建呢?主進程服務器的創建離不開與子進程的交互,畢竟與創建服務器相關的信息全在子進程的代碼中。

當子進程執行

http.Server((req, res) => {
    res.writeHead(200);
    res.end('hello world\n');

    process.send({ cmd: 'notifyRequest' });
  }).listen(8000);

時,http模塊會調用net模塊(確切的說,http.Server繼承net.Server),創建net.Server對象,同時偵聽端口。創建net.Server實例,調用構造函數返回。創建的net.Server實例調用listen(8000),等待accpet連接。那么,子進程如何傳遞服務器相關信息給主進程呢?答案就在listen函數中。我保證,net.Server.prototype.listen函數絕沒有表面上看起來的那么簡單,它涉及到了許多IPC通信和兼容性處理,可以說HTTP服務器創建的所有邏輯都在listen函數中。

延伸下,在學習linux下的socket編程時,服務端的邏輯依次是執行socket(),bind(),listen()和accept(),在接收到客戶端連接時執行read(),write()調用完成TCP層的通信。那么,對應到node的net模塊好像只有listen()階段,這是不是很難對應socket的四個階段呢?其實不然,node的net模塊把“bind,listen”操作全部寫入了net.Server.prototype.listen中,清晰的對應底層socket和TCP三次握手,而向上層使用者只暴露簡單的listen接口。

code2

Server.prototype.listen = function() {

  ...

  // 根據參數創建 handle句柄
  options = options._handle || options.handle || options;
  // (handle[, backlog][, cb]) where handle is an object with a handle
  if (options instanceof TCP) {
    this._handle = options;
    this[async_id_symbol] = this._handle.getAsyncId();
    listenInCluster(this, null, -1, -1, backlogFromArgs);
    return this;
  }

  ...

  var backlog;
  if (typeof options.port === 'number' || typeof options.port === 'string') {
    if (!isLegalPort(options.port)) {
      throw new RangeError('"port" argument must be >= 0 and < 65536');
    }
    backlog = options.backlog || backlogFromArgs;
    // start TCP server listening on host:port
    if (options.host) {
      lookupAndListen(this, options.port | 0, options.host, backlog,
                      options.exclusive);
    } else { // Undefined host, listens on unspecified address
      // Default addressType 4 will be used to search for master server
      listenInCluster(this, null, options.port | 0, 4,
                      backlog, undefined, options.exclusive);
    }
    return this;
  }

  ...

  throw new Error('Invalid listen argument: ' + util.inspect(options));
};

由於本文只探究cluster模式下HTTP服務器的相關內容,因此我們只關注有關TCP服務器部分,其他的Pipe(domain socket)服務不考慮。

listen函數可以偵聽端口、路徑和指定的fd,因此在listen函數的實現中判斷各種參數的情況,我們最為關心的就是偵聽端口的情況,在成功進入條件語句后發現所有的情況最后都執行了listenInCluster函數而返回,因此有必要繼續探究。

code3

function listenInCluster(server, address, port, addressType,
                         backlog, fd, exclusive) {

  ...

  if (cluster.isMaster || exclusive) {
    server._listen2(address, port, addressType, backlog, fd);
    return;
  }

  // 后續代碼為worker執行邏輯
  const serverQuery = {
    address: address,
    port: port,
    addressType: addressType,
    fd: fd,
    flags: 0
  };

  ... 

  cluster._getServer(server, serverQuery, listenOnMasterHandle);
}

listenInCluster函數傳入了各種參數,如server實例、ip、port、ip類型(IPv6和IPv4)、backlog(底層服務端socket處理請求的最大隊列)、fd等,它們不是必須傳入,比如創建一個TCP服務器,就僅僅需要一個port即可。

簡化后的listenInCluster函數很簡單,cluster模塊判斷當前進程為主進程時,執行_listen2函數;否則,在子進程中執行cluster._getServer函數,同時像函數傳遞serverQuery對象,即創建服務器需要的相關信息。

因此,我們可以大膽假設,子進程在cluster._getServer函數中向主進程發送了創建服務器所需要的數據,即serverQuery。實際上也確實如此:

code4

cluster._getServer = function(obj, options, cb) {

  const message = util._extend({
    act: 'queryServer',
    index: indexes[indexesKey],
    data: null
  }, options);

  send(message, function modifyHandle(reply, handle) => {
    if (typeof obj._setServerData === 'function')
      obj._setServerData(reply.data);

    if (handle)
      shared(reply, handle, indexesKey, cb);  // Shared listen socket.
    else
      rr(reply, indexesKey, cb);              // Round-robin.
  });

};

子進程在該函數中向已建立的IPC通道發送內部消息message,該消息包含之前提到的serverQuery信息,同時包含act: 'queryServer'字段,等待服務端響應后繼續執行回調函數modifyHandle。

主進程接收到子進程發送的內部消息,會根據act: 'queryServer'執行對應queryServer方法,完成服務器的創建,同時發送回復消息給子進程,子進程執行回調函數modifyHandle,繼續接下來的操作。

至此,針對主進程在cluster模式下如何創建服務器的流程已完全走通,主要的邏輯是在子進程服務器的listen過程中實現。

net模塊與socket

上節提到了node中創建服務器無法與socket創建對應的問題,本節就該問題做進一步解釋。在net.Server.prototype.listen函數中調用了listenInCluster函數,listenInCluster會在主進程或者子進程的回調函數中調用_listen2函數,對應底層服務端socket建立階段的正是在這里。

function setupListenHandle(address, port, addressType, backlog, fd) {

  // worker進程中,_handle為fake對象,無需創建
  if (this._handle) {
    debug('setupListenHandle: have a handle already');
  } else {
    debug('setupListenHandle: create a handle');

    if (rval === null)
      rval = createServerHandle(address, port, addressType, fd);

    this._handle = rval;
  }

  this[async_id_symbol] = getNewAsyncId(this._handle);

  this._handle.onconnection = onconnection;

  var err = this._handle.listen(backlog || 511);

}

通過createServerHandle函數創建句柄(句柄可理解為用戶空間的socket),同時給屬性onconnection賦值,最后偵聽端口,設定backlog。

那么,socket處理請求過程“socket(),bind()”步驟就是在createServerHandle完成。

function createServerHandle(address, port, addressType, fd) {
  var handle;

  // 針對網絡連接,綁定地址
  if (address || port || isTCP) {
    if (!address) {
      err = handle.bind6('::', port);
      if (err) {
        handle.close();
        return createServerHandle('0.0.0.0', port);
      }
    } else if (addressType === 6) {
      err = handle.bind6(address, port);
    } else {
      err = handle.bind(address, port);
    }
  }

  return handle;
}

在createServerHandle中,我們看到了如何創建socket(createServerHandle在底層利用node自己封裝的類庫創建TCP handle),也看到了bind綁定ip和地址,那么node的net模塊如何接收客戶端請求呢?

必須深入c++模塊才能了解node是如何實現在c++層面調用js層設置的onconnection回調屬性,v8引擎提供了c++和js層的類型轉換和接口透出,在c++的tcp_wrap中:

void TCPWrap::Listen(const FunctionCallbackInfo<Value>& args) {
  TCPWrap* wrap;
  ASSIGN_OR_RETURN_UNWRAP(&wrap,
                          args.Holder(),
                          args.GetReturnValue().Set(UV_EBADF));
  int backloxxg = args[0]->Int32Value();
  int err = uv_listen(reinterpret_cast<uv_stream_t*>(&wrap->handle_),
                      backlog,
                      OnConnection);
  args.GetReturnValue().Set(err);
}

我們關注uv_listen函數,它是libuv封裝后的函數,傳入了handle_,backlog和OnConnection回調函數,其中handle_為node調用libuv接口創建的socket封裝,OnConnection函數為socket接收客戶端連接時執行的操作。我們可能會猜測在js層設置的onconnction函數最終會在OnConnection中調用,於是進一步深入探查node的connection_wrap c++模塊:

template <typename WrapType, typename UVType>
void ConnectionWrap<WrapType, UVType>::OnConnection(uv_stream_t* handle,
                                                    int status) {

  if (status == 0) {
    if (uv_accept(handle, client_handle))
      return;

    // Successful accept. Call the onconnection callback in JavaScript land.
    argv[1] = client_obj;
  }
  wrap_data->MakeCallback(env->onconnection_string(), arraysize(argv), argv);
}

過濾掉多余信息便於分析。當新的客戶端連接到來時,libuv調用OnConnection,在該函數內執行uv_accept接收連接,最后將js層的回調函數onconnection[通過env->onconnection_string()獲取js的回調]和接收到的客戶端socket封裝傳入MakeCallback中。其中,argv數組的第一項為錯誤信息,第二項為已連接的clientSocket封裝,最后在MakeCallback中執行js層的onconnection函數,該函數的參數正是argv數組傳入的數據,“錯誤代碼和clientSocket封裝”。

js層的onconnection回調

function onconnection(err, clientHandle) {
  var handle = this;

  if (err) {
    self.emit('error', errnoException(err, 'accept'));
    return;
  }

  var socket = new Socket({
    handle: clientHandle,
    allowHalfOpen: self.allowHalfOpen,
    pauseOnCreate: self.pauseOnConnect
  });
  socket.readable = socket.writable = true;

  self.emit('connection', socket);
}

這樣,node在C++層調用js層的onconnection函數,構建node層的socket對象,並觸發connection事件,完成底層socket與node net模塊的連接與請求打通。

至此,我們打通了socket連接建立過程與net模塊(js層)的流程的交互,這種封裝讓開發者在不需要查閱底層接口和數據結構的情況下,僅使用node提供的http模塊就可以快速開發一個應用服務器,將目光聚集在業務邏輯中。

backlog是已連接但未進行accept處理的socket隊列大小。在linux 2.2以前,backlog大小包括了半連接狀態和全連接狀態兩種隊列大小。linux 2.2以后,分離為兩個backlog來分別限制半連接SYN_RCVD狀態的未完成連接隊列大小跟全連接ESTABLISHED狀態的已完成連接隊列大小。這里的半連接狀態,即在三次握手中,服務端接收到客戶端SYN報文后並發送SYN+ACK報文后的狀態,此時服務端等待客戶端的ACK,全連接狀態即服務端和客戶端完成三次握手后的狀態。backlog並非越大越好,當等待accept隊列過長,服務端無法及時處理排隊的socket,會造成客戶端或者前端服務器如nignx的連接超時錯誤,出現“error: Broken Pipe”。因此,node默認在socket層設置backlog默認值為511,這是因為nginx和redis默認設置的backlog值也為此,盡量避免上述錯誤。

多個子進程與端口復用

再回到關於cluster模塊的主線中來。code1中,主進程與所有子進程通過消息構建出偵聽8000端口的TCP服務器,那么子進程中有沒有也創建一個服務器,同時偵聽8000端口呢?其實,在子進程中壓根就沒有這回事,如何理解呢?子進程中確實創建了net.Server對象,可是它沒有像主進程那樣在libuv層構建socket句柄,子進程的net.Server對象使用的是一個人為fake出的一個假句柄來“欺騙”使用者端口已偵聽,這樣做的目的是為了集群的負載均衡,這又涉及到了cluster模塊的均衡策略的話題上。

在本節有關cluster集群端口偵聽以及請求處理的描述,都是基於cluster模式的默認策略RoundRobin之上討論的,關於調度策略的討論,我們放在下節進行。

主進程與服務器這一章節最后,我們只了解到主進程是如何創建偵聽給定端口的TCP服務器的,此時子進程還在等待主進程創建后發送的消息。當主進程發送創建服務器成功的消息后,子進程會執行modifyHandle回調函數。還記得這個函數嗎?主進程與服務器這一章節最后已經貼出來它的源碼:

function modifyHandle(reply, handle) => {
    if (typeof obj._setServerData === 'function')
      obj._setServerData(reply.data);

    if (handle)
      shared(reply, handle, indexesKey, cb);  // Shared listen socket.
    else
      rr(reply, indexesKey, cb);              // Round-robin.
  }

它會根據主進程是否返回handle句柄(即libuv對socket的封裝)來選擇執行函數。由於cluter默認采用RoundRobin調度策略,因此主進程返回的handle為null,執行函數rr。在該函數中,做了上文提到的hack操作,作者fake了一個假的handle對象,“欺騙”上層調用者:

function listen(backlog) {
    return 0;
  }

  const handle = { close, listen, ref: noop, unref: noop };

  handles[key] = handle;
  cb(0, handle);

看到了嗎?fake出的handle.listen並沒有調用libuv層的Listen方法,它直接返回了。這意味着什么??子進程壓根沒有創建底層的服務端socket做偵聽,所以在子進程創建的HTTP服務器偵聽的端口根本不會出現端口復用的情況。 最后,調用cb函數,將fake后的handle傳遞給上層net.Server,設置net.Server對底層的socket的引用。此后,子進程利用fake后的handle做端口偵聽(其實壓根啥都沒有做),執行成功后返回。

那么子進程TCP服務器沒有創建底層socket,如何接受請求和發送響應呢?這就要依賴IPC通道了。既然主進程負責接受客戶端請求,那么理所應當由主進程分發客戶端請求給某個子進程,由子進程處理請求。實際上也確實是這樣做的,主進程的服務器中會創建RoundRobinHandle決定分發請求給哪一個子進程,篩選出子進程后發送newconn消息給對應子進程:

  const message = { act: 'newconn', key: this.key };

  sendHelper(worker.process, message, handle, (reply) => {
    if (reply.accepted)
      handle.close();
    else
      this.distribute(0, handle);  // Worker is shutting down. Send to another.

    this.handoff(worker);
  });

子進程接收到newconn消息后,會調用內部的onconnection函數,先向主進程發送開始處理請求的消息,然后執行業務處理函數handle.onconnection。還記得這個handle.onconnection嗎?它正是上節提到的node在c++層執行的js層回調函數,在handle.onconnection中構造了net.Socket對象標識已連接的socket,最后觸發connection事件調用開發者的業務處理函數(此時的數據處理對應在網絡模型的第四層傳輸層中,node的http模塊會從socket中獲取數據做應用層的封裝,解析出請求頭、請求體並構造響應體),這樣便從內核socket->libuv->js依次執行到開發者的業務邏輯中。

到此為止,相信讀者已經明白node是如何處理客戶端的請求了,那么下一步繼續探究node是如何分發客戶端的請求給子進程的。

請求分發策略

上節提到cluster模塊默認采用RoundRobin調度策略,那么還有其他策略可以選擇嗎?答案是肯定的,在windows機器中,cluster模塊采用的是共享服務端socket方式,通俗點說就是由操作系統進行調度客戶端的請求,而不是由node程序調度。其實在node v0.8以前,默認的集群模式就是采用操作系統調度方式進行,直到cluster模塊的加入才有了改變。

那么,RoundRobin調度策略到底是怎樣的呢?

RoundRobinHandle.prototype.distribute = function(err, handle) {
  this.handles.push(handle);
  const worker = this.free.shift();

  if (worker)
    this.handoff(worker);
};

// 發送消息和handle給對應worker進程,處理業務邏輯
RoundRobinHandle.prototype.handoff = function(worker) {
  if (worker.id in this.all === false) {
    return;  // Worker is closing (or has closed) the server.
  }

  const handle = this.handles.shift();

  if (handle === undefined) {
    this.free.push(worker);  // Add to ready queue again.
    return;
  }

  const message = { act: 'newconn', key: this.key };

  sendHelper(worker.process, message, handle, (reply) => {
    if (reply.accepted)
      handle.close();
    else
      this.distribute(0, handle);  // Worker is shutting down. Send to another.

    this.handoff(worker);
  });
};

核心代碼就是這兩個函數,濃縮的是精華。

distribute函數負責篩選出處理請求的子進程,this.free數組存儲空閑的子進程,this.handles數組存放待處理的用戶請求。handoff函數獲取排隊中的客戶端請求,並通過IPC發送句柄handle和newconn消息,等待子進程返回。當子進程返回正在處理請求消息時,在此執行handoff函數,繼續分配請求給該子進程,不管該子進程上次請求是否處理完成(node的異步特性和事件循環可以讓單進程處理多請求)。

按照這樣的策略,主進程的服務器每接受一個req請求,執行修改后的onconnection回調,執行distribute方法,在其內部調用handoff函數,進入該子進程的處理循環中。一旦主進程沒有緩存的客戶端請求時(this.handles為空),便會將當前子進程加入free空閑隊列,等待主進程的下一步調度。這就是cluster模式的RoundRobin調度策略,每個子進程的處理邏輯都是一個閉環,直到主進程緩存的客戶端請求處理完畢時,該子進程的處理閉環才被打開。

這么簡單的實現帶來的效果卻是不小,經過全世界這么多使用者的嘗試,主進程分發請求還是很平均的,如果RoundRobin的調度需求不滿足你業務中的要求,你可以嘗試仿照RoundRobin模塊寫一個另類的調度算法。

那么cluster模塊在windows系統中采用的shared socket策略(后文簡稱SS策略)是什么呢?采用SS策略調度算法,子進程的服務器工作邏輯完全不同於上文中所講的那樣,子進程創建的TCP服務器會在底層偵聽端口並處理響應,這是如何實現的呢?SS策略的核心在於IPC傳輸句柄的文件描述符,並且在C++層設置端口的SO_REUSEADDR選項,最后根據傳輸的文件描述符還原出handle(net.TCP),處理請求。這正是shared socket名稱由來,共享文件描述符。

子進程繼承父進程fd,處理請求

import socket
import os

def main():
    serversocket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
    serversocket.bind(("127.0.0.1", 8888))
    serversocket.listen(0)

    # Child Process
    if os.fork() == 0:
        accept_conn("child", serversocket)

    accept_conn("parent", serversocket)

def accept_conn(message, s):
    while True:
        c, addr = s.accept()
        print 'Got connection from in %s' % message
        c.send('Thank you for your connecting to %s\n' % message)
        c.close()

if __name__ == "__main__":
    main()

需要指出的是,在子進程中根據文件描述符還原出的handle,不能再進行bind(ip,port)和listen(backlog)操作,只有主進程創建的handle可以調用這些函數。子進程中只能選擇accept、read和write操作。

既然SS策略傳遞的是master進程的服務端socket的文件描述符,子進程偵聽該描述符,那么由誰來調度哪個子進程處理請求呢?這就是由操作系統內核來進行調度。可是內核調度往往出現意想不到的效果,在linux下導致請求往往集中在某幾個子進程中處理。這從內核的調度策略也可以推算一二,內核的進程調度離不開上下文切換,上下文切換的代價很高,不僅需要保存當前進程的代碼、數據和堆棧等用戶空間數據,還需要保存各種寄存器,如PC,ESP,最后還需要恢復被調度進程的上下文狀態,仍然包括代碼、數據和各種寄存器,因此代價非常大。而linux內核在調度這些子進程時往往傾向於喚醒最近被阻塞的子進程,上下文切換的代價相對較小。而且內核的調度策略往往受到當前系統的運行任務數量和資源使用情況,對專注於業務開發的http服務器影響較大,因此會造成某些子進程的負載嚴重不均衡的狀況。那么為什么cluster模塊默認會在windows機器中采用SS策略調度子進程呢?原因是node在windows平台采用的IOCP來最大化性能,它使得傳遞連接的句柄到其他進程的成本很高,因此采用默認的依靠操作系統調度的SS策略。

SS調度策略非常簡單,主進程直接通過IPC通道發送handle給子進程即可,此處就不針對代碼進行分析了。此處,筆者利用node的child_process模塊實現了一個簡易的SS調度策略的服務集群,讀者可以更好的理解:

master代碼

var net = require('net');
var cp = require('child_process');
var w1 = cp.fork('./singletest/worker.js');
var w2 = cp.fork('./singletest/worker.js');
var w3 = cp.fork('./singletest/worker.js');
var w4 = cp.fork('./singletest/worker.js');

var server = net.createServer();

server.listen(8000,function(){
  // 傳遞句柄
  w1.send({type: 'handle'},server);
  w2.send({type: 'handle'},server);
  w3.send({type: 'handle'},server);
  w4.send({type: 'handle'},server);
  server.close();
});

child代碼

var server = require('http').createServer(function(req,res){
  res.write(cluster.isMaster + '');
  res.end(process.pid+'')
})

var cluster = require('cluster');
process.on('message',(data,handle)=>{
  if(data.type !== 'handle')
    return;

  handle.on('connection',function(socket){
    server.emit('connection',socket)
  });
});

這種方式便是SS策略的典型實現,不推薦使用者嘗試。

結尾

開篇提到的一些問題至此都已經解答完畢,關於cluster模塊的一些具體實現本文不做詳細描述,有興趣感受node源碼的同學可以在閱讀本文的基礎上再翻閱,這樣事半功倍。本文是在node源碼和筆者的計算機網絡基礎之上混合后的產物,起因於筆者研究PM2的cluster模式下God進程的具體實現。在嘗試幾天仔細研讀node cluster相關模塊后有感於其良好的封裝性,故產生將其內部實現原理和技巧向日常開發者所展示的想法,最后有了這篇文章。

那么,閱讀了這篇文章,熟悉了cluster模式的具體實現原理,對於日常開發者有什么促進作用呢?首先,能不停留在使用層面,深入到具體實現原理中去,這便是比大多數人強了;在理解實現機制的階段下,如果能反哺業務開發就更有意義了。比如,根據業務設計出更匹配的負載均衡邏輯;根據服務的日常QPS設置合理的backlog值等;最后,在探究實現的過程中,我們又回顧了許多離應用層開發人員難以接觸到的底層網絡編程和操作系統知識,這同時也是學習深入的過程。

接下來,筆者可能會抽時間針對node的其他常用模塊做一次細致的解讀。其實,node較為重要的Stream模塊筆者已經分析過了,node中的Stream深入node之Transform,經過深入探究之后在日常開發node應用中有着很大的提升作用,讀者們可以嘗試下。既然提到了Stream模塊,那么結合本文的net模塊解析,我們就非常容易理解node http模塊的實現了,因為http模塊正是基於net和Stream模塊實現的。那么下一篇文章就針對http模塊做深入解析吧!

參考文章

Node.js v0.12的新特性 -- Cluster模式采用Round-Robin負載均衡
TCP SOCKET中backlog參數


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM