1. 程式人生 > 其它 >Nginx-14 調優

Nginx-14 調優

技術標籤:伺服器、運維nginx

Nginx-14 調優

****************** 如有侵權請提示刪除 *********************

主配置段優化

  1. worker_processes 程序數最好與cpu一致
  2. CPU繫結提供快取命中率
    為了讓work能夠更好的使用cpu的快取記憶體,建議worker與cpu核心進行一對一繫結
  3. worker程序間的負載均衡
    accept_mutex引數,nginx 1_11.3之前是預設啟用的,但是這種處理方式在處理併發連線較多時效能特別差。關閉的話,worker程序會被同時喚醒,但只有一個worker程序能接收處理該連線。

reuseport需要Linux核心支援,必須Linux3.9 以上才可以,這種方式從核心層實現了worker程序間的負載均衡排程,效果非常好。

語法:

syntax:listen address[:port][reuseport]

在使用reuseport時,請設定accept_mutex off;

  1. 單個程序允許開啟的連線數【、檔案數】
    配置worker_connections 來修改,預設512,可以調大,但不能超過worker_rlimit_nofile

一般worker_rlimit_nofile, 表示所有worker程序可以開啟的檔案控制代碼數。

  1. 使用epoll 事件模型
  2. Http 配置段優化
    主要涉及檔案IO、網路IO、網路連線等三個核心層面

檔案IO

  • 優化讀取速度
    sendfile on | off;
    這個引數並不適應任何場景
  • 減少磁碟寫入
    Direct I/O 資料跨過核心直接傳輸
  • 優化讀取速度之 非同步IO
    基本語法:
    aio on | off thread{=pool}

小結:
在nginx中通常directio 與 非同步I/O 一起使用,以免造成資料讀取阻塞。
在nginx中同樣會將sendfile 與 非同步I/O一起使用,aio 會為sendfile 提前預載入資料
在nginx 中在使用directio 時會自動禁用sendfile 。

  • 靜態內容快取優化

網路IO

網路連線

一、一般來說nginx 配置檔案中對優化比較有作用的為以下幾項:

  1. worker_processes 8;
    nginx 程序數,建議按照cpu 數目來指定,一般為它的倍數 (如,2個四核的cpu計為8)。

  2. worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000;

為每個程序分配cpu,上例中將8 個程序分配到8 個cpu,當然可以寫多個,或者將一個程序分配到多個cpu。

  1. worker_rlimit_nofile 65535;

這個指令是指當一個nginx 程序開啟的最多檔案描述符數目,理論值應該是最多開啟檔案數(ulimit -n)與nginx 程序數相除,但是nginx 分配請求並不是那麼均勻,所以最好與ulimit -n 的值保持一致。

現在在linux 2.6核心下開啟檔案開啟數為65535,worker_rlimit_nofile就相應應該填寫65535。

這是因為nginx排程時分配請求到程序並不是那麼的均衡,所以假如填寫10240,總併發量達到3-4萬時就有程序可能超過10240了,這時會返回502錯誤。

檢視linux系統檔案描述符的方法:

   [[email protected] ~]# sysctl -a | grep fs.file

                    fs.file-max = 789972

                    fs.file-nr = 510 0 789972
  1. use epoll;

使用epoll 的I/O 模型

(
補充說明:
與apache相類,nginx針對不同的作業系統,有不同的事件模型

  • 標準事件模型

    • Select、poll屬於標準事件模型,如果當前系統不存在更有效的方法,nginx會選擇select或poll
  • 高效事件模型

    • Kqueue: 使用於 FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOSX. 使用雙處理器的MacOS X系統使用kqueue可能會造成核心崩潰。

    • **Epoll: ** 使用於Linux核心2.6版本及以後的系統。

    • /dev/poll:使用於 Solaris 7 11/99+, HP/UX 11.22+ (eventport), IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。

    • Eventport:使用於 Solaris 10. 為了防止出現核心崩潰的問題, 有必要安裝安全補丁。

)

  1. worker_connections 65535;
    每個程序允許的最多連線數, 理論上每臺nginx 伺服器的最大連線數為worker_processes*worker_connections。

  2. keepalive_timeout 60;
    keepalive 超時時間。

  3. client_header_buffer_size 4k;
    客戶端請求頭部的緩衝區大小,這個可以根據你的系統分頁大小來設定,一般一個請求頭的大小不會超過1k,不過由於一般系統分頁都要大於1k,所以這裡設定為分頁大小。

分頁大小可以用命令getconf PAGESIZE 取得。

[[email protected] ~]# getconf PAGESIZE
                     4096

但也有client_header_buffer_size超過4k的情況,但是client_header_buffer_size該值必須設定為“系統分頁大小”的整倍數。

  1. open_file_cache max=65535 inactive=60s;

這個將為開啟檔案指定快取,預設是沒有啟用的,max 指定快取數量,建議和開啟檔案數一致,inactive 是指經過多長時間檔案沒被請求後刪除快取。

  1. open_file_cache_valid 80s;

這個是指多長時間檢查一次快取的有效資訊。

  1. open_file_cache_min_uses 1;

open_file_cache 指令中的inactive 引數時間內檔案的最少使用次數,如果超過這個數字,檔案描述符一直是在快取中開啟的,如上例,如果有一個檔案在inactive 時間內一次沒被使用,它將被移除。

二、關於核心引數的優化:

net.ipv4.tcp_max_tw_buckets = 6000

timewait 的數量,預設是180000。

  • net.ipv4.ip_local_port_range = 1024 65000

允許系統開啟的埠範圍。

  • net.ipv4.tcp_tw_recycle = 1

啟用timewait 快速回收。

  • net.ipv4.tcp_tw_reuse = 1

開啟重用。允許將TIME-WAIT sockets 重新用於新的TCP 連線。

  • net.ipv4.tcp_syncookies = 1

開啟SYN Cookies,當出現SYN 等待佇列溢位時,啟用cookies 來處理。

  • net.core.somaxconn = 262144

web 應用中listen 函式的backlog 預設會給我們核心引數的net.core.somaxconn 限制到128,而nginx 定義的NGX_LISTEN_BACKLOG 預設為511,所以有必要調整這個值。

  • net.core.netdev_max_backlog = 262144

每個網路介面接收資料包的速率比核心處理這些包的速率快時,允許送到佇列的資料包的最大數目。

  • net.ipv4.tcp_max_orphans = 262144

系統中最多有多少個TCP 套接字不被關聯到任何一個使用者檔案控制代碼上。如果超過這個數字,孤兒連線將即刻被複位並打印出警告資訊。這個限制僅僅是為了防止簡單的DoS 攻擊,不能過分依靠它或者人為地減小這個值,更應該增加這個值(如果增加了記憶體之後)。

  • net.ipv4.tcp_max_syn_backlog = 262144

記錄的那些尚未收到客戶端確認資訊的連線請求的最大值。對於有128M 記憶體的系統而言,預設值是1024,小記憶體的系統則是128。

  • net.ipv4.tcp_timestamps = 0

時間戳可以避免序列號的卷繞。一個1Gbps 的鏈路肯定會遇到以前用過的序列號。時間戳能夠讓核心接受這種“異常”的資料包。這裡需要將其關掉。

  • net.ipv4.tcp_synack_retries = 1

為了開啟對端的連線,核心需要傳送一個SYN 並附帶一個迴應前面一個SYN 的ACK。也就是所謂三次握手中的第二次握手。這個設定決定了核心放棄連線之前傳送SYN+ACK 包的數量。

  • net.ipv4.tcp_syn_retries = 1

在核心放棄建立連線之前傳送SYN 包的數量。

  • net.ipv4.tcp_fin_timeout = 1

如 果套接字由本端要求關閉,這個引數決定了它保持在FIN-WAIT-2 狀態的時間。對端可以出錯並永遠不關閉連線,甚至意外當機。預設值是60 秒。2.2 核心的通常值是180 秒,3你可以按這個設定,但要記住的是,即使你的機器是一個輕載的WEB 伺服器,也有因為大量的死套接字而記憶體溢位的風險,FIN- WAIT-2 的危險性比FIN-WAIT-1 要小,因為它最多隻能吃掉1.5K 記憶體,但是它們的生存期長些。

  • net.ipv4.tcp_keepalive_time = 30

當keepalive 起用的時候,TCP 傳送keepalive 訊息的頻度。預設是2 小時。

三、下面貼一個完整的核心優化設定:

#CentOS5.5中可以將所有內容清空直接替換為如下內容:
vi /etc/sysctl.conf 

   net.ipv4.ip_forward = 0
   net.ipv4.conf.default.rp_filter = 1
   net.ipv4.conf.default.accept_source_route = 0
   kernel.sysrq = 0
   kernel.core_uses_pid = 1
   net.ipv4.tcp_syncookies = 1
   kernel.msgmnb = 65536
   kernel.msgmax = 65536
   kernel.shmmax = 68719476736
   kernel.shmall = 4294967296
   net.ipv4.tcp_max_tw_buckets = 6000
   net.ipv4.tcp_sack = 1
   net.ipv4.tcp_window_scaling = 1
   net.ipv4.tcp_rmem = 4096 87380 4194304
   net.ipv4.tcp_wmem = 4096 16384 4194304
   net.core.wmem_default = 8388608
   net.core.rmem_default = 8388608
   net.core.rmem_max = 16777216
   net.core.wmem_max = 16777216
   net.core.netdev_max_backlog = 262144
   net.core.somaxconn = 262144
   net.ipv4.tcp_max_orphans = 3276800
   net.ipv4.tcp_max_syn_backlog = 262144
   net.ipv4.tcp_timestamps = 0
   net.ipv4.tcp_synack_retries = 1
   net.ipv4.tcp_syn_retries = 1
   net.ipv4.tcp_tw_recycle = 1
   net.ipv4.tcp_tw_reuse = 1
   net.ipv4.tcp_mem = 94500000 915000000 927000000
   net.ipv4.tcp_fin_timeout = 1
   net.ipv4.tcp_keepalive_time = 30
   net.ipv4.ip_local_port_range = 1024 65000

#使配置立即生效可使用如下命令:
 /sbin/sysctl -p

四、下面是關於系統連線數的優化

linux 預設值 open files 和 max user processes 為 1024

#ulimit -n
  1024

 #ulimit Cu
  1024
  • 問題描述:

         說明 server 只允許同時開啟 1024 個檔案,處理 1024 個使用者程序
    
         使用ulimit -a 可以檢視當前系統的所有限制值,使用ulimit -n 可以檢視當前的最大開啟檔案數。
    
         新裝的linux 預設只有1024 ,當作負載較大的伺服器時,很容易遇到error: too many open files 。因此,需要將其改大。
    
  • 解決方法:
    使用 ulimit Cn 65535 可即時修改,但重啟後就無效了。(注ulimit -SHn 65535 等效 ulimit -n 65535 ,-S 指soft ,-H 指hard)

          有如下三種修改方式:
    
               1. 在/etc/rc.local 中增加一行 ulimit -SHn 65535
               2. 在/etc/profile 中增加一行 ulimit -SHn 65535
               3. 在/etc/security/limits.conf 最後增加:
    
                  * soft nofile 65535
                  * hard nofile 65535
                  * soft nproc 65535
                  * hard nproc 65535
    
           具體使用哪種,在 CentOS 中使用第1 種方式無效果,使用第3 種方式有效果,而在Debian 中使用第2 種有效果
    
 # ulimit -n
        65535

# ulimit -u
        65535

備註:ulimit 命令本身就有分軟硬設定,加-H 就是硬,加-S 就是軟,預設顯示的是軟限制

soft 限制指的是當前系統生效的設定值。 hard 限制值可以被普通使用者降低。但是不能增加。 soft 限制不能設定的比 hard 限制更高。 只有 root 使用者才能夠增加 hard 限制值。

參考:Nginx優化詳解(超詳細) - 龍福 - 部落格園