LNMP Linux 核心引數的優化
阿新 • • 發佈:2018-12-20
核心優化
net.ipv4.tcp_max_tw_buckets = 6000 timewait 的數量,預設是180000。 net.ipv4.ip_local_port_range = 1024 65000 允許系統開啟的埠範圍。 net.ipv4.tcp_tw_recycle = 1 啟用timewait 快速回收。 net.ipv4.tcp_tw_reuse = 1 開啟重用。允許將TIME-WAIT sockets 重新用於新的TCP 連線。 net.ipv4.tcp_syncookies = 1 開啟SYN Cookies,當出現SYN 等待佇列溢位時,啟用cookies 來處理。 net.core.somaxconn = 262144 web 應用中listen 函式的backlog 預設會給我們核心引數的net.core.somaxconn 限制到128, 而nginx 定義的NGX_LISTEN_BACKLOG 預設為511,所以有必要調整這個值。 net.core.netdev_max_backlog = 262144 每個網路介面接收資料包的速率比核心處理這些包的速率快時,允許送到佇列的資料包的最大數目。 net.ipv4.tcp_max_orphans = 262144 系統中最多有多少個TCP 套接字不被關聯到任何一個使用者檔案控制代碼上。如果超過這個數字,孤兒連線將 即刻被複位並打印出警告資訊。這個限制僅僅是為了防止簡單的DoS 攻擊,不能過分依靠它或者人為地減小這個 值,更應該增加這個值(如果增加了記憶體之後)。 net.ipv4.tcp_max_syn_backlog = 262144 記錄的那些尚未收到客戶端確認資訊的連線請求的最大值。對於有128M 記憶體的系統而言, 預設值是1024,小記憶體的系統則是128。 net.ipv4.tcp_timestamps = 0 時間戳可以避免序列號的卷繞。一個1Gbps 的鏈路肯定會遇到以前用過的序列號。 時間戳能夠讓核心接受這種“異常”的資料包。這裡需要將其關掉。 net.ipv4.tcp_synack_retries = 1 為了開啟對端的連線,核心需要傳送一個SYN 並附帶一個迴應前面一個SYN 的ACK。也就是所謂三次握手 中的第二次握手。這個設定決定了核心放棄連線之前傳送SYN+ACK 包的數量。 net.ipv4.tcp_syn_retries = 1 在核心放棄建立連線之前傳送SYN 包的數量。 net.ipv4.tcp_fin_timeout = 1 如果套接字由本端要求關閉,這個引數決定了它保持在FIN-WAIT-2 狀態的時間。 對端可以出錯並永遠不關閉連線,甚至意外當機。預設值是60 秒。 2.2 核心的通常值是180 秒,3你可以按這個設定,但要記住的是,即使你的機器是一個輕載的WEB 伺服器, 也有因為大量的死套接字而記憶體溢位的風險,FIN- WAIT-2 的危險性比FIN-WAIT-1 要小, 因為它最多隻能吃掉1.5K 記憶體,但是它們的生存期長些。 net.ipv4.tcp_keepalive_time = 30 當keepalive 起用的時候,TCP 傳送keepalive 訊息的頻度。預設是2 小時。
完整的核心優化設定:
vi /etc/sysctl.conf #可以將所有內容清空直接替換為如下內容: net.ipv4.ip_forward = 0 net.ipv4.conf.default.rp_filter = 1 net.ipv4.conf.default.accept_source_route = 0 kernel.sysrq = 0 kernel.core_uses_pid = 1 net.ipv4.tcp_syncookies = 1 kernel.msgmnb = 65536 kernel.msgmax = 65536 kernel.shmmax = 68719476736 kernel.shmall = 4294967296 net.ipv4.tcp_max_tw_buckets = 6000 net.ipv4.tcp_sack = 1 net.ipv4.tcp_window_scaling = 1 net.ipv4.tcp_rmem = 4096 87380 4194304 net.ipv4.tcp_wmem = 4096 16384 4194304 net.core.wmem_default = 8388608 net.core.rmem_default = 8388608 net.core.rmem_max = 16777216 net.core.wmem_max = 16777216 net.core.netdev_max_backlog = 262144 net.core.somaxconn = 262144 net.ipv4.tcp_max_orphans = 3276800 net.ipv4.tcp_max_syn_backlog = 262144 net.ipv4.tcp_timestamps = 0 net.ipv4.tcp_synack_retries = 1 net.ipv4.tcp_syn_retries = 1 net.ipv4.tcp_tw_recycle = 1 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_mem = 94500000 915000000 927000000 net.ipv4.tcp_fin_timeout = 1 net.ipv4.tcp_keepalive_time = 30 net.ipv4.ip_local_port_range = 1024 65000 使配置立即生效可使用如下命令: /sbin/sysctl -p
關於系統連線數的優化
linux 預設值 open files 和 max user processes 為 1024 #ulimit -n 1024 #ulimit Cu 1024 問題描述: 說明 server 只允許同時開啟 1024 個檔案,處理 1024 個使用者程序 使用ulimit -a 可以檢視當前系統的所有限制值,使用ulimit -n 可以檢視當前的最大開啟檔案數。 新裝的linux 預設只有1024 ,當作負載較大的伺服器時,很容易遇到error: too many open files 。 因此,需要將其改大。 解決方法: 使用 ulimit Cn 65535 可即時修改,但重啟後就無效了。 (注ulimit -SHn 65535 等效 ulimit -n 65535 ,-S 指soft ,-H 指hard) 有如下三種修改方式: 1. 在/etc/rc.local 中增加一行 ulimit -SHn 65535 2. 在/etc/profile 中增加一行 ulimit -SHn 65535 3. 在/etc/security/limits.conf 最後增加: * soft nofile 65535 * hard nofile 65535 * soft nproc 65535 * hard nproc 65535 具體使用哪種,在 CentOS 中使用第1 種方式無效果,使用第3 種方式有效果, 而在Debian 中使用第2 種有效果 # ulimit -n 65535 # ulimit -u 65535 備註:ulimit 命令本身就有分軟硬設定,加-H 就是硬,加-S 就是軟預設顯示的是軟限制 soft 限制指的是當前系統生效的設定值。 hard 限制值可以被普通使用者降低。但是不能增加。 soft 限制不能設定的比 hard 限制更高。 只有 root 使用者才能夠增加 hard 限制值。
具體操作如下:
1.修改配置檔案的方式
ulimit -n # 檢視預設檔案描述符大小
1024
vim /etc/security/limits.conf # 編輯檔案描述符檔案
* - nofile 65535 #追加到檔案裡
或者
echo '* - nofile 65535' >> /etc/security/limits.conf #直接寫入
退出遠端登入 即生效
2.命令列修改
# 放入開機自動執行的檔案裡去(/etc/rc.local)
cat >>/etc/rc.local <<EOF
#open files
ulimit -HSn 65535
#stack size
ulimit -s 65535
EOF