Nginx的進程模型及高可用方案(OpenResty)


 1. Nginx 進程模型簡介

  Nginx默認采用多進程工作方式,Nginx啟動后,會運行一個master進程和多個worker進程。其中master充當整個進程組與用戶的交互接口,同時對進程進行監護,管理worker進程來實現重啟服務、平滑升級、更換日志文件、配置文件實時生效等功能。worker用來處理基本的網絡事件,worker之間是平等的,他們共同競爭來處理來自客戶端的請求。生產環境一般采用的是多進程+多路復用的形式。這里可以從服務器上可以很直觀的看到:

  進程模型:

  

  1. 在創建master進程時,先建立需要監聽的socket(listenfd),然后從master進程中fork()出多個worker進程,如此一來每個worker進程都可以監聽用戶請求的socket。一般來說,當一個連接進來后,所有Worker都會收到通知,但是只有一個進程可以接受這個連接請求,其它的都失敗,這是所謂的驚群現象。nginx提供了一個accept_mutex(互斥鎖),有了這把鎖之后,同一時刻,就只會有一個進程在accpet連接,這樣就不會有驚群問題了。

  2. 先打開accept_mutex選項,只有獲得了accept_mutex的進程才會去添加accept事件。nginx使用一個叫ngx_accept_disabled的變量來控制是否去競爭accept_mutex鎖。ngx_accept_disabled = nginx單進程的所有連接總數 / 8 -空閑連接數量,當ngx_accept_disabled大於0時,不會去嘗試獲取accept_mutex鎖,ngx_accept_disable越大,讓出的機會就越多,這樣其它進程獲取鎖的機會也就越大。不去accept,每個worker進程的連接數就控制下來了,其它進程的連接池就會得到利用,這樣,nginx就控制了多進程間連接的平衡。

  3.每個worker進程都有一個獨立的連接池,連接池的大小是worker_connections。這里的連接池里面保存的其實不是真實的連接,它只是一個worker_connections大小的一個ngx_connection_t結構的數組。並且,nginx會通過一個鏈表free_connections來保存所有的空閑ngx_connection_t,每次獲取一個連接時,就從空閑連接鏈表中獲取一個,用完后,再放回空閑連接鏈表里面。一個nginx能建立的最大連接數,應該是worker_connections * worker_processes。當然,這里說的是最大連接數,對於HTTP請求本地資源來說,能夠支持的最大並發數量是worker_connections * worker_processes,而如果是HTTP作為反向代理來說,最大並發數量應該是worker_connections * worker_processes/2。因為作為反向代理服務器,每個並發會建立與客戶端的連接和與后端服務的連接,會占用兩個連接。

  相關的配置:

worker_processes  1; // 工作進程數,建議設成CPU總核心數。
events { // 多路復用IO模型機制,epoll . select  ....根據操作系統不同來選擇。linux 默認epoll
    use epoll; //io 模型
    worker_connections  1024; // 每個woker進程的最大連接數,數值越大,並發量允許越大
}
http{
  sendfile  on;//開啟零拷貝
}

2. Nginx 的高可用方案

  Nginx 作為反向代理服務器,所有的流量都會經過 Nginx,所以 Nginx 本身的可靠性是我們首先要考慮的問題。

keepalived:

   Keepalived 是 Linux 下一個輕量級別的高可用解決方案,Keepalived 軟件起初是專為 LVS 負載均衡軟件設計的,LVS 是 Linux Virtual Server 的縮寫,也就是 Linux 虛擬服務器,在 linux2.4 內核以后,已經完全內置了 LVS 的各個功能模塊。它是工作在四層的負載均衡,類似於 Haproxy, 主要用於實現對服務器集群的負載均衡。用來管理並監控 LVS 集群系統中各個服務節點的狀態,后來又加入了可以實現高可用的 VRRP 功能。因此,Keepalived 除了能夠管理 LVS 軟件外,還可以作為其他服務(例如:Nginx、Haproxy、MySQL 等)的高可用解決方案軟件。

  Keepalived 軟件主要是通過 VRRP 協議實現高可用功能的。VRRP 是 Virtual Router RedundancyProtocol(虛擬路由器冗余協議)的縮寫,VRRP 出現的目的就是為了解決靜態路由單點故障問題的,它能夠保證當個別節點宕機時,整個網絡可以不間斷地運行;(簡單來說,vrrp 就是把兩台或多態路由器設備虛擬成一個設備,實現主備高可用)。所以,Keepalived 一方面具有配置管理 LVS 的功能,同時還具有對 LVS 下面節點進行健康檢查的功能,另一方面也可實現系統網絡服務的高可用功能

  關於四層負載,我們知道 osi 網絡層次模型的 7 層模模型(應用層、表示層、會話層、傳輸層、網絡層、數據鏈路層、物理層);四層負載就是基於傳輸層,也就是ip+端口的負載;而七層負載就是需要基於 URL 等應用層的信息來做負載,同時還有二層負載(基於 MAC)、三層負載(IP);常見的四層負載有:LVS、F5; 七層負載有:Nginx、HAproxy; 在軟件層面,Nginx/LVS/HAProxy 是使用得比較廣泛的三種負載均衡軟件。

  keepalived 安裝:

1.tar -zxvf keepalived-2.0.10.tar.gz

2. ./configure --prefix=/data/program/keepalived --sysconf=/etc 我這邊使用默認安裝路徑,執行./configure --sysconf=/etc  會安裝到 /usr/local 下

3.如果缺少依賴庫 安裝 yum -y install pcre-devel zlib-devel openssl openssl-devel,yum install gcc gcc-c++

4.make && make install

5.進入安裝后的路徑 cd /usr/local, 創建軟連接: ln -s sbin/keepalived /sbin

6.復制運行命令  cp /mysoft/keepalived-2.0.10/keepalived/etc/init.d/keepalived /etc/init.d/

7.添加到系統服務 chkconfig --add keepalived

8.啟用該服務 systemctl enable keepalived.service

 9.啟動  service keepalived start 並查看狀態,安裝成功。在配置完conf文件后啟動會有如下信息

keepalived 的配置 vim /etc/keepalived/keepalived.conf,由於keepalive只作為vrrp協議的實現,負載代理的工作是交給后面的nginx或者haproxy來實現的。所以部署到一個節點上即可。

MASTER:(192.168.254.139)與nginx在同一個機器上

! Configuration File for keepalived
global_defs {
 router_id MASTER_DEVEL #運行 keepalived 服務器的標識,在一個網絡內應該是唯一的
}
vrrp_instance VI_1 { #vrrp 實例定義部分
 state MASTER #設置 lvs 的狀態,MASTER 和 BACKUP 兩種,必須大寫
 interface  ens33 #設置對外服務的接口
 virtual_router_id 51 #設置虛擬路由標示,這個標示是一個數字,同一個 vrrp 實例使用唯一標示
 priority 150 #定義優先級,數字越大優先級越高,在一個 vrrp——instance 下,master 的優先級必須大於 backup
 advert_int 1 #設定 master 與 backup 負載均衡器之間同步檢查的時間間隔,單位是秒
 authentication { #設置驗證類型和密碼
 auth_type PASS
 auth_pass 1111 #驗證密碼,同一個 vrrp_instance 下 MASTER 和 BACKUP 密碼必須相同}
 virtual_ipaddress { #設置虛擬 ip 地址,可以設置多個,每行一個
   192.168.254.111
 }
}
virtual_server 192.168.254.111 80 { #設置虛擬服務器,需要指定虛擬 ip 和服務端口
 delay_loop 6 #健康檢查時間間隔
 lb_algo rr #負載均衡調度算法
 lb_kind NAT #負載均衡轉發規則
 persistence_timeout 50 #設置會話保持時間
 protocol TCP #指定轉發協議類型,有 TCP 和 UDP 兩種
 real_server 192.168.254.139 80 { #配置服務器節點 1,需要指定 real server 的真實 IP 地址和端口weight 1 #設置權重,數字越大權重越高
 TCP_CHECK { #realserver 的狀態監測設置部分單位秒
   connect_timeout 3 #超時時間
   delay_before_retry 3 #重試間隔
   connect_port 80 #監測端口
 }
 }
}

BACKUP:(192.168.254.137)與nginx在同一個機器上

! Configuration File for keepalived
global_defs {
 router_id BACKUP_DEVEL #運行 keepalived 服務器的標識,在一個網絡內應該是唯一的
}
vrrp_instance VI_1 { #vrrp 實例定義部分
 state BACKUP #設置 lvs 的狀態,MASTER 和 BACKUP 兩種,必須大寫
 interface  ens33 #設置對外服務的接口
 virtual_router_id 51 #設置虛擬路由標示,這個標示是一個數字,同一個 vrrp 實例使用唯一標示
 priority 100 #定義優先級,數字越大優先級越高,在一個 vrrp——instance 下,master 的優先級必須大於 backup
 advert_int 1 #設定 master 與 backup 負載均衡器之間同步檢查的時間間隔,單位是秒
 authentication { #設置驗證類型和密碼
 auth_type PASS
 auth_pass 1111 #驗證密碼,同一個 vrrp_instance 下 MASTER 和 BACKUP 密碼必須相同}
 virtual_ipaddress { #設置虛擬 ip 地址,可以設置多個,每行一個
   192.168.254.111
 }
}
virtual_server 192.168.254.111 80 { #設置虛擬服務器,需要指定虛擬 ip 和服務端口
 delay_loop 6 #健康檢查時間間隔
 lb_algo rr #負載均衡調度算法
 lb_kind NAT #負載均衡轉發規則
 persistence_timeout 50 #設置會話保持時間
 protocol TCP #指定轉發協議類型,有 TCP 和 UDP 兩種
 real_server 192.168.254.137 80 { #配置服務器節點 1,需要指定 real server 的真實 IP 地址和端口weight 1 #設置權重,數字越大權重越高
 TCP_CHECK { #realserver 的狀態監測設置部分單位秒
   connect_timeout 3 #超時時間
   delay_before_retry 3 #重試間隔
   connect_port 80 #監測端口
 }
 }
}

 通過腳本實現動態切換(與nginx心跳的綁定):

  通過腳本的方式來檢測 nginx 服務是否存活,一旦nginx掛了,那么可以通過這個機制把 keepalived 關閉,把機會讓給哪些還存活的節點。詳細配置如下:

首先編寫shell 腳本:我這邊是在keepalived.conf 所在目錄下執行:vim vim nginx_service_check.sh,輸入以下信息並保存。

#!bin/sh #! /bin/sh 是指此腳本使用/bin/sh 來執行
A=`ps -C nginx --no-header |wc -l`
if [ $A -eq 0 ]
 then
 echo 'nginx server is died'
 service keepalived stop
fi

  可以通過sh nginx_service_check.sh 來驗證該腳本是否正確。在nginx 沒有啟動的時候要是能輸出如下信息就說明是OK的:

  為給文件添加權限 : chmod +x nginx_service_check.sh  。

  然后修改 keepalived.conf 文件:加入以下信息

global_defs {
   router_id MASTER_DEVEL
   enable_script_security
}

vrrp_script check_nginx_service {
    script "/etc/keepalived/nginx_service_check.sh"
    interval 3
    weight -10
    user root

}
#還有在vrrp_instance VI_1 這個模塊中添加如下信息
vrrp_instance VI_1 {
    track_script{
       check_nginx_service
    }
}

  然后啟動集群,把配置了該監聽腳本的節點的nginx服務停掉,會發現此刻通過瀏覽器訪問會切到另外一個節點上。說明配置完成,或者在nginx服務沒有啟動的時候去啟動 keepalived 服務,會發現該服務無論如何都是無法啟動的,啟動后查看狀態一直會是 dead 的狀態。高可用方案到此結束。

3. OpenResty 安裝及使用

  OpenResty 是一個通過 Lua 擴展 Nginx 實現的可伸縮的 Web 平台,內部集成了大量精良的 Lua 庫、第三方模塊以及大多數的依賴項。用於方便地搭建能夠處理超高並發、擴展性極高的動態 Web 應用、Web 服務和動態網關。

安裝:

1. 下載安裝包  https://openresty.org/cn/download.html

2. 安裝軟件包  tar -zxvf openresty-1.13.6.2.tar.gz。cd openrestry-1.13.6.2。./configure [默認會安裝在/usr/local/openresty 目錄] --prefix= 指定路徑。make && make install

3. 可能存在的錯誤,第三方依賴庫沒有安裝的情況下會報錯 yum install readline-devel / pcre-devel /openssl-devel

  安裝過程和 Nginx 是一樣的,因為他是基於 Nginx 做的擴展。開始第一個程序,HelloWorld  cd /usr/local/openresty/nginx/conf 編輯 nginx 配置文件 nginx.conf 

location / {
 default_type text/html;
 content_by_lua_block {
   ngx.say("helloworld");
 }
}

  在 sbin 目錄下執行.nginx 命令就可以運行,訪問可以看到 helloworld。

建立工作空間:

  為了不影響默認的安裝目錄,我們可以創建一個獨立的空間來練習,先到在安裝目錄下創建 demo 目錄,安裝目錄為/usr/local/openresty  .mkdir demo。然后在 demo 目錄下創建三個子目錄,一個是 logs 、一個是 conf,一個是 lua。

  進接下去演示一個實現 API網關功能的簡單demo,然后提供一個算法去計算傳入參數a,b的和。入conf 創建配置文件  vim nginx.conf :

worker_processes 1;
error_log logs/error.log;
events {
   worker_connections 1024;
}
http {
   lua_package_path '$prefix/lua/?.lua'; //這里的¥prefix在啟動的時候指定
   lua_code_cache off; // lua腳本不需要重新加載
   server {
     listen 80;
     // 正則匹配訪問路徑
     location ~ ^/api/([-_a-zA-Z0-9]+) {
        // 請求過濾一下
        access_by_lua_file lua/check.lua;
        content_by_lua_file lua/$1.lua;
     }
   }
}

  當來到的請求符合   ^/api/([-_a-zA-Z0-9/]  時 會在NGX_HTTP_CONTENT_PHASE HTTP請求內容階段 交給 lua/$1.lua來處理。比如:

/api/addition                    交給 lua/addition.lua 處理。

/api/lua/substraction       交給 lua/substraction .lua 處理。

  接下去創建 三個 lua 腳本:params.lua:

local _M ={} // 定義一個模塊
//定義一個方法
//該方法用於判斷參數是否為數字
function _M.is_number(...)
   local args={...}
   local num;
   for i,v in ipairs(arg) do
     num=tonumber(v);
     if nil ==num then
         return false;
     end
   end
   return true;
end
//將該模塊返回出去
return _M;

  寫一個用於起到網關過濾的檢查腳本check.lua:

//導入模塊
local param=require("params");
//獲取uri的參數 local args=ngx.req.get_uri_args();
//判斷a,b是否為空且是否為數字 if not args.a or not args.b or not param.is_number(args.a,args.b) then ngx.exit(ngx.HTTP_BAD_REQUEST); return; end

  算法腳本  add.lua:

local args =ngx.req.get_uri_args();
ngx.say(args.a+args.b);

  進入nginx的sbin目錄執行:./nginx -p /usr/local/openresty/demo 【-p 主要是指明 nginx 啟動時的配置目錄】,此時會提示一個警告信息,無需理會,有強迫症把對應配置關了就還了:nginx: [alert] lua_code_cache is off; this will hurt performance in /usr/local/openresty/demo/conf/nginx.conf:12。通過訪問http://192.168.254.137/api/add?a=1&b=3 能顯示最后的值:

  庫文件使用:通過上面的案例,我們基本上對 openresty 有了一個更深的認識,其中我們用到了自定義的 lua 模塊。實際上 openresty 提供了很豐富的模塊。讓我們在實現某些場景的時候更加方便。可以在 /openresty/lualib 目錄下看到;比如在 resty 目錄下可以看到 redis.lua、mysql.lua 這樣的操作 redis 和操作數據庫的模塊。更多的庫可以去百度,或者查找相關書籍。

4.什么是API網關

  從一個房間到另一個房間,必須必須要經過一扇門,同樣,從一個網絡向另一個網絡發送信息,必須經過一道“關口”,這道關口就是網關。顧名思義,網關(Gateway)就是一個網絡連接到另一個網絡的“關口”。那什么是 api 網關呢?

  在微服務流行起來之前,api 網關就一直存在,最主要的應用場景就是開放平台,也就是 open api; 這種場景大家接觸的一定比較多,比如阿里的開放平台;當微服務流行起來以后,api 網關就成了上層應用集成的標配組件.

  為什么需要網關?

  對微服務組件地址進行統一抽象,API 網關意味着你要把 API 網關放到你的微服務的最前端,並且要讓 API 網關變成由應用所發起的每個請求的入口。這樣就可以簡化客戶端實現和微服務應用程序之間的溝通方式.

  當服務越來越多以后,我們需要考慮一個問題,就是對某些服務進行安全校驗以及用戶身份校驗。甚至包括對流量進行控制。 我們會對需要做流控、需要做身份認證的服務單獨提供認證功能,但是服務越來越多以后,會發現很多組件的校驗是重復的。這些東西很明顯不是每個微服務組件需要去關心的事情。微服務組件只需要負責接收請求以及返回響應即可。可以把身份認證、流控都放在 API 網關層進行控制。

5. OpenResty 實現灰度發布功能

  在單一架構中,隨着代碼量和業務量不斷擴大,版本迭代會逐步變成一個很困難的事情,哪怕是一點小的修改,都必須要對整個應用重新部署。 但是在微服務中,各個模塊是是一個獨立運行的組件,版本迭代會很方便,影響面很小。同時,為服務化的組件節點,對於我們去實現灰度發布(金絲雀發布:將一部分流量引導到新的版本)來說,也會變的很簡單;所以通過 API 網關,可以對指定調用的微服務版本,通過版本來隔離。如下圖所示

  OpenResty 實現 API 網關限流及登錄授權

  OpenResty 為什么能做網關?

  前面我們了解到了網關的作用,通過網關,可以對 api 訪問的前置操作進行統一的管理,比如鑒權、限流、負載均衡、日志收集、請求分片等。所以 API 網關的核心是所有客戶端對接后端服務之前,都需要統一接入網關,通過網關層將所有非業務功能進行處理。OpenResty 為什么能實現網關呢? OpenResty 有一個非常重要的因素是,對於每一個請求,Openresty 會把請求分為不同階段,從而可以讓第三方模塊通過掛載行為來實現不同階段的自定義行為。而這樣的機制能夠讓我們非常方便的設計 api 網關。

Nginx 本身在處理一個用戶請求時,會按照不同的階段進行處理,總共會分為 11個階段。而 openresty 的執行指令,就是在這 11 個步驟中掛載 lua 執行腳本實現擴展,我們分別看看每個指令的作用

  init_by_lua : 當 Nginx master 進程加載 nginx 配置文件時會運行這段 lua 腳本,一般用來注冊全局變量或者預加載 lua 模塊。

  init_woker_by_lua: 每個 Nginx worker 進程啟動時會執行的 lua 腳本,可以用來做健康檢查。

  set_by_lua:設置一個變量。

  rewrite_by_lua:在 rewrite 階段執行,為每個請求執行指定的 lua 腳本。

  access_by_lua:為每個請求在訪問階段調用 lua 腳本。

  content_by_lua:前面演示過,通過 lua 腳本生成 content 輸出給 http 響應。

  balancer_by_lua:實現動態負載均衡,如果不是走 contentbylua,則走 proxy_pass,再通過 upstream 進行轉發。

  header_filter_by_lua: 通過 lua 來設置 headers 或者 cookie。

  body_filter_by_lua:對響應數據進行過濾。

  log_by_lua : 在 log 階段執行的腳本,一般用來做數據統計,將請求數據傳輸到后端進行分析。

灰度發布的實現:

1.跟前面一樣創建一個新的工作空間 mkdir gray。然后在 demo 目錄下創建三個子目錄,一個是 logs 、一個是 conf,一個是 lua。

2.編寫 Nginx 的配置文件 nginx.conf

worker_processes 1;

error_log logs/error.log;

events{
  worker_connections 1024;
}

http{
 lua_package_path "$prefix/lualib/?.lua;;";
 lua_package_cpath "$prefix/lualib/?.so;;";
 //生產環境
 upstream prod {//tomcat地址
  server 192.168.254.137:8080;
 }
 // 預生產環境
 upstream pre {//tomcat地址
  server 192.168.254.139:8080;
 }

 server {
  listen 80;
  server_name localhost;
  //當訪問該路徑就會進入lua腳本
  location / {
   content_by_lua_file lua/gray.lua;
  }
  // 定義變量在lua中會使用
  location @prod {
   proxy_pass http://prod;
  }

  location @pre {
   proxy_pass http://pre;
  }
 }
}

3.編寫 gray.lua 文件

local redis=require "resty.redis";
local red=redis:new();
red:set_timeout(1000);
local ok,err=red:connect("192.168.254.138",6379);
if not ok then
 ngx.say("failed to connect redis",err);
 return;
end
ok, err = red:auth("wuzhenzhao");
local_ip=ngx.var.remote_addr;
local ip_lists=red:get("gray");
if string.find(ip_lists,local_ip) == nil then
 ngx.exec("@prod");
else
 ngx.exec("@pre");
end
local ok,err=red:close();

4.

  1.進入sbin目錄 執行命令啟動 nginx: ./nginx -p /usr/local/openresty/gray

  2. 啟動 redis,並設置 set gray 192.168.254.1,由於我這邊是訪問虛擬機,所以我本地ip去訪問就是這個。

  3. 通過瀏覽器運行: http://192.168.254.137/查看運行結果

  修改 redis gray 的值, 到 redis 中 set gray 192.168.254.2. 再次運行結果,即可看到訪問結果已經發生了變化.


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM