Nginx-14 調優
Nginx-14 調優
****************** 如有侵權請提示刪除 *********************
主配置段優化
- worker_processes 程序數最好與cpu一致
- CPU繫結提供快取命中率
為了讓work能夠更好的使用cpu的快取記憶體,建議worker與cpu核心進行一對一繫結 - worker程序間的負載均衡
accept_mutex引數,nginx 1_11.3之前是預設啟用的,但是這種處理方式在處理併發連線較多時效能特別差。關閉的話,worker程序會被同時喚醒,但只有一個worker程序能接收處理該連線。
reuseport需要Linux核心支援,必須Linux3.9 以上才可以,這種方式從核心層實現了worker程序間的負載均衡排程,效果非常好。
syntax:listen address[:port][reuseport]
在使用reuseport時,請設定accept_mutex off;
- 單個程序允許開啟的連線數【、檔案數】
配置worker_connections 來修改,預設512,可以調大,但不能超過worker_rlimit_nofile
一般worker_rlimit_nofile, 表示所有worker程序可以開啟的檔案控制代碼數。
- 使用epoll 事件模型
- Http 配置段優化
主要涉及檔案IO、網路IO、網路連線等三個核心層面
檔案IO
- 優化讀取速度
sendfile on | off;
這個引數並不適應任何場景 - 減少磁碟寫入
Direct I/O 資料跨過核心直接傳輸 - 優化讀取速度之 非同步IO
基本語法:
aio on | off thread{=pool}
小結:
在nginx中通常directio 與 非同步I/O 一起使用,以免造成資料讀取阻塞。
在nginx中同樣會將sendfile 與 非同步I/O一起使用,aio 會為sendfile 提前預載入資料
在nginx 中在使用directio 時會自動禁用sendfile 。
- 靜態內容快取優化
網路IO
網路連線
一、一般來說nginx 配置檔案中對優化比較有作用的為以下幾項:
-
worker_processes 8;
nginx 程序數,建議按照cpu 數目來指定,一般為它的倍數 (如,2個四核的cpu計為8)。 -
worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000;
為每個程序分配cpu,上例中將8 個程序分配到8 個cpu,當然可以寫多個,或者將一個程序分配到多個cpu。
- worker_rlimit_nofile 65535;
這個指令是指當一個nginx 程序開啟的最多檔案描述符數目,理論值應該是最多開啟檔案數(ulimit -n)與nginx 程序數相除,但是nginx 分配請求並不是那麼均勻,所以最好與ulimit -n 的值保持一致。
現在在linux 2.6核心下開啟檔案開啟數為65535,worker_rlimit_nofile就相應應該填寫65535。
這是因為nginx排程時分配請求到程序並不是那麼的均衡,所以假如填寫10240,總併發量達到3-4萬時就有程序可能超過10240了,這時會返回502錯誤。
檢視linux系統檔案描述符的方法:
[[email protected] ~]# sysctl -a | grep fs.file
fs.file-max = 789972
fs.file-nr = 510 0 789972
- use epoll;
使用epoll 的I/O 模型
(
補充說明:
與apache相類,nginx針對不同的作業系統,有不同的事件模型
-
標準事件模型
- Select、poll屬於標準事件模型,如果當前系統不存在更有效的方法,nginx會選擇select或poll
-
高效事件模型
-
Kqueue: 使用於 FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOSX. 使用雙處理器的MacOS X系統使用kqueue可能會造成核心崩潰。
-
**Epoll: ** 使用於Linux核心2.6版本及以後的系統。
-
/dev/poll:使用於 Solaris 7 11/99+, HP/UX 11.22+ (eventport), IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。
-
Eventport:使用於 Solaris 10. 為了防止出現核心崩潰的問題, 有必要安裝安全補丁。
-
)
-
worker_connections 65535;
每個程序允許的最多連線數, 理論上每臺nginx 伺服器的最大連線數為worker_processes*worker_connections。 -
keepalive_timeout 60;
keepalive 超時時間。 -
client_header_buffer_size 4k;
客戶端請求頭部的緩衝區大小,這個可以根據你的系統分頁大小來設定,一般一個請求頭的大小不會超過1k,不過由於一般系統分頁都要大於1k,所以這裡設定為分頁大小。
分頁大小可以用命令getconf PAGESIZE 取得。
[[email protected] ~]# getconf PAGESIZE
4096
但也有client_header_buffer_size超過4k的情況,但是client_header_buffer_size該值必須設定為“系統分頁大小”的整倍數。
- open_file_cache max=65535 inactive=60s;
這個將為開啟檔案指定快取,預設是沒有啟用的,max 指定快取數量,建議和開啟檔案數一致,inactive 是指經過多長時間檔案沒被請求後刪除快取。
- open_file_cache_valid 80s;
這個是指多長時間檢查一次快取的有效資訊。
- open_file_cache_min_uses 1;
open_file_cache 指令中的inactive 引數時間內檔案的最少使用次數,如果超過這個數字,檔案描述符一直是在快取中開啟的,如上例,如果有一個檔案在inactive 時間內一次沒被使用,它將被移除。
二、關於核心引數的優化:
net.ipv4.tcp_max_tw_buckets = 6000
timewait 的數量,預設是180000。
- net.ipv4.ip_local_port_range = 1024 65000
允許系統開啟的埠範圍。
- net.ipv4.tcp_tw_recycle = 1
啟用timewait 快速回收。
- net.ipv4.tcp_tw_reuse = 1
開啟重用。允許將TIME-WAIT sockets 重新用於新的TCP 連線。
- net.ipv4.tcp_syncookies = 1
開啟SYN Cookies,當出現SYN 等待佇列溢位時,啟用cookies 來處理。
- net.core.somaxconn = 262144
web 應用中listen 函式的backlog 預設會給我們核心引數的net.core.somaxconn 限制到128,而nginx 定義的NGX_LISTEN_BACKLOG 預設為511,所以有必要調整這個值。
- net.core.netdev_max_backlog = 262144
每個網路介面接收資料包的速率比核心處理這些包的速率快時,允許送到佇列的資料包的最大數目。
- net.ipv4.tcp_max_orphans = 262144
系統中最多有多少個TCP 套接字不被關聯到任何一個使用者檔案控制代碼上。如果超過這個數字,孤兒連線將即刻被複位並打印出警告資訊。這個限制僅僅是為了防止簡單的DoS 攻擊,不能過分依靠它或者人為地減小這個值,更應該增加這個值(如果增加了記憶體之後)。
- net.ipv4.tcp_max_syn_backlog = 262144
記錄的那些尚未收到客戶端確認資訊的連線請求的最大值。對於有128M 記憶體的系統而言,預設值是1024,小記憶體的系統則是128。
- net.ipv4.tcp_timestamps = 0
時間戳可以避免序列號的卷繞。一個1Gbps 的鏈路肯定會遇到以前用過的序列號。時間戳能夠讓核心接受這種“異常”的資料包。這裡需要將其關掉。
- net.ipv4.tcp_synack_retries = 1
為了開啟對端的連線,核心需要傳送一個SYN 並附帶一個迴應前面一個SYN 的ACK。也就是所謂三次握手中的第二次握手。這個設定決定了核心放棄連線之前傳送SYN+ACK 包的數量。
- net.ipv4.tcp_syn_retries = 1
在核心放棄建立連線之前傳送SYN 包的數量。
- net.ipv4.tcp_fin_timeout = 1
如 果套接字由本端要求關閉,這個引數決定了它保持在FIN-WAIT-2 狀態的時間。對端可以出錯並永遠不關閉連線,甚至意外當機。預設值是60 秒。2.2 核心的通常值是180 秒,3你可以按這個設定,但要記住的是,即使你的機器是一個輕載的WEB 伺服器,也有因為大量的死套接字而記憶體溢位的風險,FIN- WAIT-2 的危險性比FIN-WAIT-1 要小,因為它最多隻能吃掉1.5K 記憶體,但是它們的生存期長些。
- net.ipv4.tcp_keepalive_time = 30
當keepalive 起用的時候,TCP 傳送keepalive 訊息的頻度。預設是2 小時。
三、下面貼一個完整的核心優化設定:
#CentOS5.5中可以將所有內容清空直接替換為如下內容:
vi /etc/sysctl.conf
net.ipv4.ip_forward = 0
net.ipv4.conf.default.rp_filter = 1
net.ipv4.conf.default.accept_source_route = 0
kernel.sysrq = 0
kernel.core_uses_pid = 1
net.ipv4.tcp_syncookies = 1
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.shmmax = 68719476736
kernel.shmall = 4294967296
net.ipv4.tcp_max_tw_buckets = 6000
net.ipv4.tcp_sack = 1
net.ipv4.tcp_window_scaling = 1
net.ipv4.tcp_rmem = 4096 87380 4194304
net.ipv4.tcp_wmem = 4096 16384 4194304
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.core.netdev_max_backlog = 262144
net.core.somaxconn = 262144
net.ipv4.tcp_max_orphans = 3276800
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_synack_retries = 1
net.ipv4.tcp_syn_retries = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_mem = 94500000 915000000 927000000
net.ipv4.tcp_fin_timeout = 1
net.ipv4.tcp_keepalive_time = 30
net.ipv4.ip_local_port_range = 1024 65000
#使配置立即生效可使用如下命令:
/sbin/sysctl -p
四、下面是關於系統連線數的優化
linux 預設值 open files 和 max user processes 為 1024
#ulimit -n
1024
#ulimit Cu
1024
-
問題描述:
說明 server 只允許同時開啟 1024 個檔案,處理 1024 個使用者程序 使用ulimit -a 可以檢視當前系統的所有限制值,使用ulimit -n 可以檢視當前的最大開啟檔案數。 新裝的linux 預設只有1024 ,當作負載較大的伺服器時,很容易遇到error: too many open files 。因此,需要將其改大。
-
解決方法:
使用 ulimit Cn 65535 可即時修改,但重啟後就無效了。(注ulimit -SHn 65535 等效 ulimit -n 65535 ,-S 指soft ,-H 指hard)有如下三種修改方式: 1. 在/etc/rc.local 中增加一行 ulimit -SHn 65535 2. 在/etc/profile 中增加一行 ulimit -SHn 65535 3. 在/etc/security/limits.conf 最後增加: * soft nofile 65535 * hard nofile 65535 * soft nproc 65535 * hard nproc 65535 具體使用哪種,在 CentOS 中使用第1 種方式無效果,使用第3 種方式有效果,而在Debian 中使用第2 種有效果
# ulimit -n
65535
# ulimit -u
65535
備註:ulimit 命令本身就有分軟硬設定,加-H 就是硬,加-S 就是軟,預設顯示的是軟限制
soft 限制指的是當前系統生效的設定值。 hard 限制值可以被普通使用者降低。但是不能增加。 soft 限制不能設定的比 hard 限制更高。 只有 root 使用者才能夠增加 hard 限制值。