Linux 下高並發系統內核優化


1) 優化 Linux 文件打開最大數:
vi /etc/security/limits.conf
* soft nproc 65535
* hard nproc 65535
* soft nofile 65535
* hard nofile 65535
為了防止失控的進程破壞系統的性能,Unix 和 Linux 跟蹤進程使用的大部分資源,允許
用戶和系統管理員使用對進程的資源限制,設置的限制有兩種: 硬限制和軟限制:
hard 硬限制是可以在任何時候任何進程中設置 但硬限制只能由超級用戶修改。
soft 軟限制是內核實際執行的限制,任何進程都可以將軟限制設置為任意小於等於對
進程限制的硬限制的值,(noproc)最大線程數和(nofile)文件數。
2) 內核參數的優化
vi /etc/sysctl.conf
net.ipv4.tcp_max_tw_buckets = 6000
timewait 的數量,默認是 180000。
net.ipv4.ip_local_port_range = 1024 65000
允許系統打開的端口范圍。
net.ipv4.tcp_tw_recycle = 1
啟用 timewait 快速回收。
net.ipv4.tcp_tw_reuse = 1
開啟重用。允許將 TIME-WAIT sockets 重新用於新的 TCP 連接。
net.ipv4.tcp_syncookies = 1
開啟 SYN Cookies,當出現 SYN 等待隊列溢出時,啟用 cookies 來處理。
net.core.somaxconn = 262144
web應用中listen函數的backlog默認會給我們內核參數的net.core.somaxconn限制到128,
而 nginx 定義的 NGX_LISTEN_BACKLOG 默認為 511,所以有必要調整這個值。
net.core.netdev_max_backlog = 262144
每個網絡接口接收數據包的速率比內核處理這些包的速率快時,允許送到隊列的數據包的最
大數目。
net.ipv4.tcp_max_orphans = 262144
系統中最多有多少個 TCP 套接字不被關聯到任何一個用戶文件句柄上。如果超過這個數字,
孤兒連接將即刻被復位並打印出警告信息。這個限制僅僅是為了防止簡單的 DoS 攻擊,不能
過分依靠它或者人為地減小這個值,更應該增加這個值(如果增加了內存之后)。
net.ipv4.tcp_max_syn_backlog = 262144
記錄的那些尚未收到客戶端確認信息的連接請求的最大值。對於有 128M 內存的系統而言,
缺省值是 1024,小內存的系統則是 128。
net.ipv4.tcp_timestamps = 0時間戳可以避免序列號的卷繞。一個 1Gbps 的鏈路肯定會遇到以前用過的序列號。時間戳能
夠讓內核接受這種“異常”的數據包。這里需要將其關掉。
net.ipv4.tcp_synack_retries = 1
為了打開對端的連接,內核需要發送一個 SYN 並附帶一個回應前面一個 SYN 的 ACK。也就是
所謂三次握手中的第二次握手。這個設置決定了內核放棄連接之前發送 SYN+ACK 包的數量。
net.ipv4.tcp_syn_retries = 1
在內核放棄建立連接之前發送 SYN 包的數量。
net.ipv4.tcp_fin_timeout = 1
如果套接字由本端要求關閉,這個參數決定了它保持在 FIN-WAIT-2 狀態的時間。對端可以
出錯並永遠不關閉連接,甚至意外當機。缺省值是 60 秒。2.2 內核的通常值是 180 秒,你
可以按這個設置,但要記住的是,即使你的機器是一個輕載的 WEB 服務器,也有因為大量的
死套接字而內存溢出的風險,FIN- WAIT-2 的危險性比 FIN-WAIT-1 要小,因為它最多只能
吃掉 1.5K 內存,但是它們的生存期長些。
net.ipv4.tcp_keepalive_time = 30
當 keepalive 起用的時候,TCP 發送 keepalive 消息的頻度。缺省是 2 小時。
完整的內核優化腳本:
net.ipv4.ip_forward = 0
net.ipv4.conf.default.rp_filter = 1
net.ipv4.conf.default.accept_source_route = 0
kernel.sysrq = 0
kernel.core_uses_pid = 1
net.ipv4.tcp_syncookies = 1
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.shmmax = 68719476736
kernel.shmall = 4294967296
net.ipv4.tcp_max_tw_buckets = 10000
net.ipv4.tcp_sack = 1
net.ipv4.tcp_window_scaling = 1
net.ipv4.tcp_rmem = 4096 87380 4194304
net.ipv4.tcp_wmem = 4096 16384 4194304
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.core.netdev_max_backlog = 262144
net.core.somaxconn = 262144
net.ipv4.tcp_max_orphans = 3276800
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_synack_retries = 1
net.ipv4.tcp_syn_retries = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1net.ipv4.tcp_mem = 94500000 915000000 927000000
net.ipv4.tcp_fin_timeout = 1
net.ipv4.tcp_keepalive_time = 30
net.ipv4.ip_local_port_range = 1024 65530
net.ipv4.icmp_echo_ignore_all = 1
3) 常見內核報錯解析
 net.ipv4.tcp_max_tw_buckets 錯誤:
Sep 23 04:45:54 localhost kernel: possible SYN flooding on port 80. Sending cookies.
Sep 23 04:45:55 localhost kernel: TCP: time wait bucket table overflow
Sep 23 04:45:55 localhost kernel: TCP: time wait bucket table overflow
Sep 23 04:45:55 localhost kernel: TCP: time wait bucket table overflow
Sep 23 04:45:55 localhost kernel: TCP: time wait bucket table overflow
Sep 23 04:45:55 localhost kernel: TCP: time wait bucket table overflow
Sep 23 04:45:55 localhost kernel: TCP: time wait bucket table overflow
如上錯誤是由於 net.ipv4.tcp_max_tw_buckets 設置過小導致,如果內核有如上錯誤,我們需要
增加 net.ipv4.tcp_max_tw_buckets 的值。
 Too many open files 錯誤:
如果后台報錯,大量的 too many open files 錯誤,一般主要是 JAVA 應用出現這類錯誤比較多。我們需
要設置內核打開文件最大數。
ulimit -SHn 51200 臨時生效,如果想永久生效,需要寫入到系統內核里面:
vi /etc/security/limits.conf
* soft nproc 65535
* hard nproc 65535
* soft nofile 65535
* hard nofile 65535
然后 exit 退出,重新登錄即生效,也可以寫在/etc/profile 文件里。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM