當網站服務器並發連接達到一定程度時,你可能需要考慮服務器系統中tcp協議設置對http服務器的影響。
tcp相關延時主要包括:
1、tcp連接時建立握手;
2、tcp慢啟動擁塞控制;
3、數據聚集的Nagle算法;
4、用於捎帶確認的tcp延遲確認算法;
5、TIME_WAIT時延和端口耗盡。
對上面的延時影響,相應的優化方法有:
1、http使用“持久化連接”,http 1.0中使用connection:keep-alive, http 1.1默認使用持久化連接;
2、調整或禁止延遲確認算法(HTTP協議具有雙峰特征的請求-應答行為降低了捎帶確認的可能);
3、設置TCP_NODELAY禁止Nagle算法,提高性能;
4、TIME_WAIT設置為一個較小的值。
根據上述分析,我們可以修改linux的tcp參數,通過vi 打開/etc/sysctl.conf,添加如下參數
net.ipv4.ip_local_port_range=1024 65000 net.ipv4.tcp_tw_reuse=1 net.ipv4.tcp_fin_timeout=15
其中,
net.ipv4.ip_local_port_range
在服務器收到很多連接時,系統的可用端口將很快被耗盡。通過修改net.ipv4.ip_local_port_range參數,可以將可用端口的范圍改大.
net.ipv4.tcp_tw_reuse
當服務器需要在大量TCP連接之間切換時,會產生大量處於TIME_WAIT狀態的連接。TIME_WAIT意味着連接本身是關閉的,但資源還沒有釋放。將net_ipv4_tcp_tw_reuse設置為1是讓內核在安全時盡量回收連接,這比重新建立新連接要便宜得多。
net.ipv4.tcp_fin_timeout
這是處於TIME_WAIT狀態的連接在回收前必須等待的最小時間。改小它可以加快回收。
若使用的是nginx服務器,還可以在nginx.conf中如下設置
http { sendfile on; tcp_nodelay on; keepalive_timeout 60; ... ... }
第一行的 sendfile
配置可以提高 Nginx 靜態資源托管效率。sendfile 是一個系統調用,直接在內核空間完成文件發送,不需要先 read 再 write,沒有上下文切換開銷。
TCP_NODELAY 也是一個 socket 選項,啟用后會禁用 Nagle 算法,盡快發送數據,可以節約 200ms。Nginx 只會針對處於 keep-alive 狀態的 TCP 連接才會啟用 tcp_nodelay。
最后一行用來指定服務端為每個 TCP 連接最多可以保持多長時間。Nginx 的默認值是 75 秒,有些瀏覽器最多只保持 60 秒,所以我統一設置為 60。
我們可以通過命令 ss -s查看tcp連接信息
[root@localhost ~]# ss -s Total: 31985 (kernel 0) TCP: 7032 (estab 33, closed 6991, orphaned 4, synrecv 0, timewait 2336/0), ports 0 Transport Total IP IPv6 * 0 - - RAW 0 0 0 UDP 2 2 0 TCP 41 39 2 INET 43 41 2 FRAG 0 0 0
所有的TCP/IP參數都位於/proc/sys/net目錄下(請注意,對/proc/sys/net目錄下內容的修改都是臨時的,任何修改在系統重啟后都會丟失),例如下面這些重要的參數:
參數(路徑+文件) |
描述 |
默認值 |
優化值 |
/proc/sys/net/core/rmem_default |
默認的TCP數據接收窗口大小(字節)。 |
229376 |
256960 |
/proc/sys/net/core/rmem_max |
最大的TCP數據接收窗口(字節)。 |
131071 |
513920 |
/proc/sys/net/core/wmem_default |
默認的TCP數據發送窗口大小(字節)。 |
229376 |
256960 |
/proc/sys/net/core/wmem_max |
最大的TCP數據發送窗口(字節)。 |
131071 |
513920 |
/proc/sys/net/core/netdev_max_backlog |
在每個網絡接口接收數據包的速率比內核處理這些包的速率快時,允許送到隊列的數據包的最大數目。 |
1000 |
2000 |
/proc/sys/net/core/somaxconn |
定義了系統中每一個端口最大的監聽隊列的長度,這是個全局的參數。 |
128 |
2048 |
/proc/sys/net/core/optmem_max |
表示每個套接字所允許的最大緩沖區的大小。 |
20480 |
81920 |
/proc/sys/net/ipv4/tcp_mem |
確定TCP棧應該如何反映內存使用,每個值的單位都是內存頁(通常是4KB)。第一個值是內存使用的下限;第二個值是內存壓力模式開始對緩沖區使用應用壓力的上限;第三個值是內存使用的上限。在這個層次上可以將報文丟棄,從而減少對內存的使用。對於較大的BDP可以增大這些值(注意,其單位是內存頁而不是字節)。 |
94011 125351 188022 |
131072 262144 524288 |
/proc/sys/net/ipv4/tcp_rmem |
為自動調優定義socket使用的內存。第一個值是為socket接收緩沖區分配的最少字節數;第二個值是默認值(該值會被rmem_default覆蓋),緩沖區在系統負載不重的情況下可以增長到這個值;第三個值是接收緩沖區空間的最大字節數(該值會被rmem_max覆蓋)。 |
4096 87380 4011232 |
8760 256960 4088000 |
/proc/sys/net/ipv4/tcp_wmem |
為自動調優定義socket使用的內存。第一個值是為socket發送緩沖區分配的最少字節數;第二個值是默認值(該值會被wmem_default覆蓋),緩沖區在系統負載不重的情況下可以增長到這個值;第三個值是發送緩沖區空間的最大字節數(該值會被wmem_max覆蓋)。 |
4096 16384 4011232 |
8760 256960 4088000 |
/proc/sys/net/ipv4/tcp_keepalive_time |
TCP發送keepalive探測消息的間隔時間(秒),用於確認TCP連接是否有效。 |
7200 |
1800 |
/proc/sys/net/ipv4/tcp_keepalive_intvl |
探測消息未獲得響應時,重發該消息的間隔時間(秒)。 |
75 |
30 |
/proc/sys/net/ipv4/tcp_keepalive_probes |
在認定TCP連接失效之前,最多發送多少個keepalive探測消息。 |
9 |
3 |
/proc/sys/net/ipv4/tcp_sack |
啟用有選擇的應答(1表示啟用),通過有選擇地應答亂序接收到的報文來提高性能,讓發送者只發送丟失的報文段,(對於廣域網通信來說)這個選項應該啟用,但是會增加對CPU的占用。 |
1 |
1 |
/proc/sys/net/ipv4/tcp_fack |
啟用轉發應答,可以進行有選擇應答(SACK)從而減少擁塞情況的發生,這個選項也應該啟用。 |
1 |
1 |
/proc/sys/net/ipv4/tcp_timestamps |
TCP時間戳(會在TCP包頭增加12個字節),以一種比重發超時更精確的方法(參考RFC 1323)來啟用對RTT 的計算,為實現更好的性能應該啟用這個選項。 |
1 |
1 |
/proc/sys/net/ipv4/tcp_window_scaling |
啟用RFC 1323定義的window scaling,要支持超過64KB的TCP窗口,必須啟用該值(1表示啟用),TCP窗口最大至1GB,TCP連接雙方都啟用時才生效。 |
1 |
1 |
/proc/sys/net/ipv4/tcp_syncookies |
表示是否打開TCP同步標簽(syncookie),內核必須打開了CONFIG_SYN_COOKIES項進行編譯,同步標簽可以防止一個套接字在有過多試圖連接到達時引起過載。 |
1 |
1 |
/proc/sys/net/ipv4/tcp_tw_reuse |
表示是否允許將處於TIME-WAIT狀態的socket(TIME-WAIT的端口)用於新的TCP連接 。 |
0 |
1 |
/proc/sys/net/ipv4/tcp_tw_recycle |
能夠更快地回收TIME-WAIT套接字。 |
0 |
1 |
/proc/sys/net/ipv4/tcp_fin_timeout |
對於本端斷開的socket連接,TCP保持在FIN-WAIT-2狀態的時間(秒)。對方可能會斷開連接或一直不結束連接或不可預料的進程死亡。 |
60 |
30 |
/proc/sys/net/ipv4/ip_local_port_range |
表示TCP/UDP協議允許使用的本地端口號 |
32768 61000 |
1024 65000 |
/proc/sys/net/ipv4/tcp_max_syn_backlog |
對於還未獲得對方確認的連接請求,可保存在隊列中的最大數目。如果服務器經常出現過載,可以嘗試增加這個數字。 |
2048 |
2048 |
/proc/sys/net/ipv4/tcp_low_latency |
允許TCP/IP棧適應在高吞吐量情況下低延時的情況,這個選項應該禁用。 |
0 |
|
/proc/sys/net/ipv4/tcp_westwood |
啟用發送者端的擁塞控制算法,它可以維護對吞吐量的評估,並試圖對帶寬的整體利用情況進行優化,對於WAN 通信來說應該啟用這個選項。 |
0 |
|
/proc/sys/net/ipv4/tcp_bic |
為快速長距離網絡啟用Binary Increase Congestion,這樣可以更好地利用以GB速度進行操作的鏈接,對於WAN通信應該啟用這個選項。 |
1 |
|
--------------------------------------------------------------------------------
最后,前段時間利用手頭的VPS搭建了一個google代理,訪問速度還行,分享給大家:
谷歌guge不行了,就打119
谷歌:guge119.com 谷歌學術:scholar.guge119.com
微信公共號
NFVschool,關注最前沿的網絡技術。