一份針對nginx的內核優化參數
阿新 • • 發佈:2019-01-28
並發連接 大數據 web 新的 滑動窗口 accept nco 打印 nec
首先,需要修改/etc/sysctl.conf來更改內核參數。
例如,最常用的配置:
# ·file-max:這個參數表示進程(比如一個worker進程)可以同時打開的最大句柄數,這個參數直接限制最大並發連接數,需根據實際情況配置。 fs.file-max = 999999 # ·tcp_tw_reuse:這個參數設置為1,表示允許將TIME-WAIT狀態的socket重新用於新的TCP連接,這對於服務器來說很有意義,因為服務器上總會有大量TIME-WAIT狀態的連接。 net.ipv4.tcp_tw_reuse = 1 # ·tcp_keepalive_time:這個參數表示當keepalive啟用時,TCP發送keepalive消息的頻度。默認是2小時,若將其設置得小一些,可以更快地清理無效的連接。 net.ipv4.tcp_keepalive_time = 600# ·tcp_fin_timeout:這個參數表示當服務器主動關閉連接時,socket保持在FIN-WAIT-2狀態的最大時間。 net.ipv4.tcp_fin_timeout = 30 # ·tcp_max_tw_buckets:這個參數表示操作系統允許TIME_WAIT套接字數量的最大值,如果超過這個數字,TIME_WAIT套接字將立刻被清除並打印警告信息。該參數默認為180000,過多的TIME_WAIT套接字會使Web服務器變慢。 net.ipv4.tcp_max_tw_buckets = 5000 # ·tcp_max_syn_backlog:這個參數表示TCP三次握手建立階段接收SYN請求隊列的最大長度,默認為1024,將其設置得大一些可以使出現Nginx繁忙來不及accept新連接的情況時,Linux不至於丟失客戶端發起的連接請求。 net.ipv4.tcp_max_syn_backlog = 262144# ·ip_local_port_range:這個參數定義了在UDP和TCP連接中本地(不包括連接的遠端)端口的取值範圍。 net.ipv4.ip_local_port_range = 1024 61000 # ·net.ipv4.tcp_rmem:這個參數定義了TCP接收緩存(用於TCP接收滑動窗口)的最小值、默認值、最大值。 net.ipv4.tcp_rmem = 4096 32768 262142 # ·net.ipv4.tcp_wmem:這個參數定義了TCP發送緩存(用於TCP發送滑動窗口)的最小值、默認值、最大值。 net.ipv4.tcp_wmem = 4096 32768 262142# ·netdev_max_backlog:當網卡接收數據包的速度大於內核處理的速度時,會有一個隊列保存這些數據包。這個參數表示該隊列的最大值。 net.core.netdev_max_backlog = 8096 # ·rmem_default:這個參數表示內核套接字接收緩存區默認的大小。 net.core.rmem_default = 262144 # ·wmem_default:這個參數表示內核套接字發送緩存區默認的大小。 net.core.wmem_default = 262144 # ·rmem_max:這個參數表示內核套接字接收緩存區的最大大小。 net.core.rmem_max = 2097152 # ·wmem_max:這個參數表示內核套接字發送緩存區的最大大小。 net.core.wmem_max = 2097152 # ·tcp_syncookies:該參數與性能無關,用於解決TCP的SYN攻擊。 net.ipv4.tcp_syncookies = 1
然後執行sysctl-p命令,使上述修改生效。
註意:
。滑動窗口的大小與套接字緩存區會在一定程度上影響並發連接的數目。每個TCP連接都會為維護TCP滑動窗口而消耗內存,這個窗口會根據服務器的處理速度收縮或擴張。
。參數wmem_max的設置,需要平衡物理內存的總大小、Nginx並發處理的最大連接數量(由nginx.conf中的worker_processes和worker_connections參數決定)而確定。當然,如果僅僅為了提高並發量使服務器不出現Out Of Memory問題而去降低滑動窗口大小,那麽並不合適,因為滑動窗口過小會影響大數據量的傳輸速度。
。rmem_default、wmem_default、rmem_max、wmem_max這4個參數的設置需要根據我們的業務特性以及實際的硬件成本來綜合考慮。
一份針對nginx的內核優化參數