一文看懂 Nginx 架構


一、Nginx基礎架構

 

Nginx啟動后以daemon形式在后台運行,后台進程包含一個master進程和多個worker進程。如下圖所示:

 

 

Nginx是由一個master管理進程,多個worker進程處理工作的多進程模型。基礎架構設計,如下圖所示:

 

 

Master負責管理worker進程,worker進程負責處理網絡事件。整個框架被設計為一種依賴事件驅動、異步、非阻塞的模式

 

如此設計的優點有:

 

  • 可以充分利用多核機器,增強並發處理能力。

  • 多worker間可以實現負載均衡。

  • Master監控並統一管理worker行為。在worker異常后,可以主動拉起worker進程,從而提升了系統的可靠性。並且由Master進程控制服務運行中的程序升級、配置項修改等操作,從而增強了整體的動態可擴展與熱更的能力。

 

二、Master進程

 

1. 核心邏輯

 

Master進程的主邏輯在ngx_master_process_cycle,核心關注源碼:

ngx_master_process_cycle(ngx_cycle_t *cycle){ ... ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_RESPAWN); ...

for ( ;; ) { if (delay) {...}
ngx_log_debug(NGX_LOG_DEBUG_EVENT, cycle->log, , "sigsuspend"); sigsuspend(&set);
ngx_time_update();
ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, , "wake up, sigio %i", sigio);
if (ngx_reap) { ngx_reap = ; ngx_log_debug(NGX_LOG_DEBUG_EVENT, cycle->log, , "reap children"); live = ngx_reap_children(cycle); }
if (!live && (ngx_terminate || ngx_quit)) {...}
        if (ngx_terminate) {...}
if (ngx_quit) {...}
if (ngx_reconfigure) {...}
if (ngx_restart) {...}
if (ngx_reopen) {...}
        if (ngx_change_binary) {...}
if (ngx_noaccept) { ngx_noaccept = ; ngx_noaccepting = 1; ngx_signal_worker_processes(cycle,
ngx_signal_value(NGX_SHUTDOWN_SIGNAL)); } } }

 

由上述代碼,可以理解,master進程主要用來管理worker進程,具體包括如下4個主要功能:

 

1)接受來自外界的信號。其中master循環中的各項標志位就對應着各種信號,如:ngx_quit代表QUIT信號,表示優雅的關閉整個服務。

 

2)向各個worker進程發送信。比如ngx_noaccept代表WINCH信號,表示所有子進程不再接受處理新的連接,由master向所有的子進程發送QUIT信號量。

 

3)監控worker進程的運行狀態。比如ngx_reap代表CHILD信號,表示有子進程意外結束,這時需要監控所有子進程的運行狀態,主要由ngx_reap_children完成。

 

4)當woker進程退出后(異常情況下),會自動重新啟動新的woker進程。主要也是在ngx_reap_children。

 

2. 熱更

 

1)熱重載-配置熱更

Nginx熱更配置時,可以保持運行中平滑更新配置,具體流程如下:

 

  • 更新nginx.conf配置文件,向master發送SIGHUP信號或執行nginx -s reload
  • Master進程使用新配置,啟動新的worker進程
  • 使用舊配置的worker進程,不再接受新的連接請求,並在完成已存在的連接后退出

 

2)熱升級-程序熱更

 

Nginx熱升級過程如下:

 

 

  • 將舊Nginx文件換成新Nginx文件(注意備份)
  • 向master進程發送USR2信號(平滑升級到新版本的Nginx程序)
  • master進程修改pid文件號,加后綴.oldbin
  • master進程用新Nginx文件啟動新master進程,此時新老master/worker同時存在。
  • 向老master發送WINCH信號,關閉舊worker進程,觀察新worker進程工作情況。若升級成功,則向老master進程發送QUIT信號,關閉老master進程;若升級失敗,則需要回滾,向老master發送HUP信號(重讀配置文件),向新master發送QUIT信號,關閉新master及worker。

 

三、Worker進程

 

1. 核心邏輯

 

Worker進程的主邏輯在ngx_worker_process_cycle,核心關注源碼:

ngx_worker_process_cycle(ngx_cycle_t *cycle, void *data){ ngx_int_t worker = (intptr_t) data;

ngx_process = NGX_PROCESS_WORKER; ngx_worker = worker;

ngx_worker_process_init(cycle, worker);

ngx_setproctitle("worker process");

for ( ;; ) {

if (ngx_exiting) {...}

ngx_log_debug(NGX_LOG_DEBUG_EVENT, cycle->log, , "worker cycle");

ngx_process_events_and_timers(cycle);

if (ngx_terminate) {...}

if (ngx_quit) {...}

if (ngx_reopen) {...} }}

 

由上述代碼,可以理解,worker進程主要在處理網絡事件,通過ngx_process_events_and_timers方法實現,其中事件主要包括:網絡事件、定時器事件。

 

2. 事件驅動-epoll

 

Worker進程在處理網絡事件時,依靠epoll模型,來管理並發連接,實現了事件驅動、異步、非阻塞等特性。如下圖所示:

 

 

通常海量並發連接過程中,每一時刻(相對較短的一段時間),往往只需要處理一小部分有事件的連接即活躍連接。基於以上現象,epoll通過將連接管理與活躍連接管理進行分離,實現了QQ賬號轉讓地圖高效、穩定的網絡IO處理能力。

 

 

其中,epoll利用紅黑樹高效的增刪查效率來管理連接,利用一個雙向鏈表來維護活躍連接。

 

 

3. 驚群

 

由於worker都是由master進程fork產生,所以worker都會監聽相同端口。這樣多個子進程在accept建立連接時會發生爭搶,帶來著名的“驚群”問題。

 

Worker核心處理邏輯ngx_process_events_and_timers核心代碼如下

void ngx_process_events_and_timers(ngx_cycle_t *cycle){ //這里面會對監聽socket處理 ...
if (ngx_accept_disabled > ) { ngx_accept_disabled--; } else { //獲得鎖則加入wait集合, if (ngx_trylock_accept_mutex(cycle) == NGX_ERROR) { return; } ... //設置網絡讀寫事件延遲處理標志,即在釋放鎖后處理 if (ngx_accept_mutex_held) { flags |= NGX_POST_EVENTS; } } ... //這里面epollwait等待網絡事件 //網絡連接事件,放入ngx_posted_accept_events隊列 //網絡讀寫事件,放入ngx_posted_events隊列 (void) ngx_process_events(cycle, timer, flags); ... //先處理網絡連接事件,只有獲取到鎖,這里才會有連接事件 ngx_event_process_posted(cycle, &ngx_posted_accept_events); //釋放鎖,讓其他進程也能夠拿到 if (ngx_accept_mutex_held) { ngx_shmtx_unlock(&ngx_accept_mutex); } //處理網絡讀寫事件 ngx_event_process_posted(cycle, &ngx_posted_events);}

 

由上述代碼可知,Nginx解決驚群的方法:

 

1)將連接事件與讀寫事件進行分離。連接事件存放為ngx_posted_accept_events,讀寫事件存放為ngx_posted_events。

 

2)設置ngx_accept_mutex鎖,只有獲得鎖的進程,才可以處理連接事件。

 

4. 負載均衡

 

Worker間的負載關鍵在於各自接入了多少連接,其中接入連接搶鎖的前置條件是ngx_accept_disabled > 0,所以ngx_accept_disabled就是負載均衡機制實現的關鍵閾值。

 

ngx_int_t ngx_accept_disabled;ngx_accept_disabled = ngx_cycle->connection_n / 8 - ngx_cycle->free_connection_n;

 

因此,在nginx啟動時,ngx_accept_disabled的值就是一個負數,其值為連接總數的7/8。當該進程的連接數達到總連接數的7/8時,該進程就不會再處理新的連接了。

 

同時每次調用'ngx_process_events_and_timers'時,將ngx_accept_disabled減1,直到其值低於閾值時,才試圖重新處理新的連接。

 

因此,nginx各worker子進程間的負載均衡僅在某個worker進程處理的連接數達到它最大處理總數的7/8時才會觸發,其負載均衡並不是在任意條件都滿足。如下圖所示:

 

 

其中'pid'為1211的進程為master進程,其余為worker進程。

 

四、思考

 

1. 為什么不采用多線程模型管理連接?

 

  • 無狀態服務,無需共享進程內存
  • 采用獨立的進程,可以讓互相之間不會影響。一個進程異常崩潰,其他進程的服務不會中斷,提升了架構的可靠性。
  • 進程之間不共享資源,不需要加鎖,所以省掉了鎖帶來的開銷。

 

2. 為什么不采用多線程處理邏輯業務?

 

  • 進程數已經等於核心數,再新建線程處理任務,只會搶占現有進程,增加切換代價。
  • 作為接入層,基本上都是數據轉發業務,網絡IO任務的等待耗時部分,已經被處理為非阻塞/全異步/事件驅動模式,在沒有更多CPU的情況下,再利用多線程處理,意義不大。並且如果進程中有阻塞的處理邏輯,應該由各個業務進行解決,比如openResty中利用了Lua協程,對阻塞業務進行了優化。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM