1. 程式人生 > 其它 >27 Linux-Web伺服器 Nginx

27 Linux-Web伺服器 Nginx

27 Linux-Web伺服器 Nginx

27.1 前言

27.1.1 同步與非同步

同步與非同步的重點在訊息通知的方式上,也就是呼叫結果的通知方式不同 。

同步:當一個同步呼叫發出去後,呼叫者要一直等待呼叫 的 結 果 通知後,才能進行後續的執行。

非同步:當一個非同步呼叫發出去後,呼叫者 不必一直等待 呼叫結果的返回 非同步呼叫, 要想獲得結果,

一般有兩種方式:

  • 主動輪詢非同步呼叫的結果 ;

  • 被呼叫方通過 callback 回撥 通知 來通知呼叫方呼叫結果。

    示例:

同步取快遞:小明收到 快遞將送達的簡訊,在樓下一直等到快遞送達。

異取取快遞: 小明收到快遞將送達的簡訊,快遞到樓下後,小明再下樓去取。

非同步取快遞,小明知道快遞到達樓下有兩種方式:

  1. 不停的電話問快遞小哥到了沒有,即主動輪詢;

  2. 快遞小哥到樓下後,打電話通知小明,然後小明下樓取快遞,即回撥通知。

27.1.2 阻塞與非阻塞

阻塞與非阻塞的重點在於進執行緒等待訊息時候的行為,也就是在等待訊息的時候,當前進 執行緒是掛起狀態,還是非掛起狀態。

阻塞:呼叫在發出去後,在訊息返回之前,當前進 執行緒會被掛起,直到有訊息返回,當前進 執行緒才會被啟用

非阻塞:呼叫在發出去後,不會阻塞當 前進 線 程,而會立即返回。

示例:

阻塞取快遞:小明收到快遞即將送達的資訊後,什麼事都不做,一直專門等快遞。

非阻塞取快遞:小明收到快遞即將送達的資訊後,等快遞的時候,還一邊敲程式碼、一邊刷微信。

同步與非同步,重點在於訊息通知的方式;阻塞與非阻塞,重點在於等訊息時候的行為。所以,就有了下面4 種組合方式

  • 同步阻塞:小明收到資訊後,啥都不幹,等快遞;

  • 同步非阻塞:小明收到資訊後,邊刷微博,邊等著取快遞;

  • 非同步阻塞:小明收到資訊後,啥都不幹,一直等著快遞員通知他取快遞;

  • 非同步非阻塞:小明收到資訊後,邊 刷著 微博 ,邊等快遞員通知他取快 遞。

大部分程式的I/O 模型都是同步阻塞的,單個程序每次只在一個檔案描述符上執行 I/O 操作,每次 I/O系統呼叫都會阻塞,直到完成資料傳輸。 傳統的伺服器採用的就是同步阻塞的多程序模型。一個 server採用一個程序負責一個 request 的方式,一個程序負責一個 request ,直到會話結束。程序數就是併發數,而作業系統支援的程序數是有限的,且程序數越多,排程的開銷也越大,因此無法面對高併發。

Nginx採用了非同步非阻塞的方式工作。 我們先來 先了解一下 I/O 多路複用 中的 epoll 模型 。

27.1.3 epoll模型

當連線有I/O 事件產生的時候, epoll 就會去告訴程序哪個連線有 I/O 事件產生,然後程序就去處理這個事件。

示例:

小明家樓下有一個收發室,每次有快遞到了, 門衛 就先代收並做了標記;然後通知小明去取送給小明的快遞。

27.1.4 為什麼Nginx 比 其他 web 伺服器併發高

Nginx配置 use epoll 後,以非同步非阻塞方式工作,能夠輕鬆處理百萬級的併發連線。

處理過程:每進來一個 request ,會有一個 worker 程序去處理。但不是全程的處理, 處理到可能發生阻塞的地方。比如向後端服務 器轉 發 request ,並等待請求返回。那麼,這個 處理的 worker 不會這麼傻等著,他會在傳送完請求後,註冊一個事件:“如果 後端伺服器 返回了,告訴我一聲,我再接著幹”。於是他就休息去了。此時,如果再有 新的 request 進來,他 就可以很快再按這種方式處理。而一旦 後端 伺服器返回了,就會觸發這個事件, worker 才會來接手,這個 request 才會接著往下走。 通過這種快速處理 ,快速釋放請求的方式 ,達到同樣的配置可以處理更大併發量的目的 。

27.2 Nginx 詳解

27.2.1 概述

Nginx (engine x) 是一個高效能的 HTTP 和反向代理 web 伺服器,同時也提供了 IMAP/POP3/SMTP服務。 Nginx 是由伊戈爾·賽索耶夫為俄羅斯訪問量第二的 Rambler.ru 站點 開發的,第一個公開版本0.1.0 釋出於2004年10月4日。

Nginx 是一款輕量級的 Web 伺服器 反向代理伺服器及電子郵件( IMAP/POP3 )代理伺服器,在BSD-like 協議下發行。其特點是佔有記憶體少,併發能力強 。

27.2.2 工作模式

nginx有兩種工作模式 :master-worker 模式和單程序模式。在 master-worker 模式下,有一個master程序和至少一個的 worker 程序,單程序模式顧名思義只有一個程序。這兩種模式有各自的特點和適用場景。

master-worker:

該模式下,nginx 啟動成功後,會有一個 master 程序和至少一個的 worker 程序。 master 程序負責處理系統訊號,載入配置,管理worker 程序(啟動,殺死,監控,傳送訊息 訊號等)。 worker 程序負責處理具體的業務邏輯,也就是說,對外部來說,真正 提供服務的是 worker 程序。生產環境下一般使用這種模式,因為這種模式有以下優點

  1. 穩定性高,只要還有 worker 程序 存活,就能夠提供服務,並且一個 worke r 程序掛掉 master 程序會立即啟動一個新的 worker 程序,保證 worker 程序數量不變 ,降低服務中斷的概率。

  2. 配合 linux 的 cpu 親和性配置,可以充分利用多核 cpu 的優勢,提升效能

  3. 處理訊號 配置重新載入 升級時可以做到儘可能少或者不中斷服務 熱重啟

單程序模式:

單程序模式下,nginx 啟動後只有一個程序, nginx 的所有工 作 都由這個程序負責。由於只有一個程序,因此可以很方便地利用 gdb 等工具進行除錯。該模式不支援 nginx 的平滑升級功能,任 何的 訊號處理都可能造成服務中斷,並且由於是單程序,程序掛掉後,在沒有外部監控的情況下,無法重啟服務。

因此,該模式一般只在開發階 段和除錯時使用,生產環境下不會使用。

27.2.3 配置檔案 結構

user www www;
# 程式執行使用者和組
worker_processes auto;
# 啟動程序,指定 nginx 啟動的工作程序數量,建議按照 cpu 數目來指定,一般等於 cpu 核心數目
error_l og /home/wwwlogs/nginx_error.log crit;
# 全域性錯誤日誌
pid /usr/local/nginx/logs/nginx.pid;
# 主程序 PID 儲存檔案
worker_rlimit_nofile 51200;
# 檔案描述符數量
events
{
use epo ll;
# 使用 epoll 模型,對於 2.6 以上的核心,建議使用 epoll 模型以提高效能
worker_connections 51200;
# 工作程序的最大連線數量
}

http{
# 網站優化引數
server { # 具體的某一網站的配置資訊
listen 80; # 監聽埠
root html; # 網頁根目錄 us r/local/nginx/html
server name www.atguigu.com # 伺服器域名
index index.html # 預設載入頁面
access _log lo gs/access.log # 訪問日誌儲存位置
......;
location (.*) (.*)\\.php${
# 用正則匹配具體的訪問物件
}
location {
# 跳轉等規則
}
}
server {
# 虛擬主機
}
}

27.2.4 Nginx相關實驗

實驗1:Nginx 的狀態統計

安裝 nginx 時將 --with-http_stub_status_module 模組開啟

修改 nginx 配置檔案 寫入要訪問的 server 標籤中

location /nginx_status{
stub_status on;
access_log off;
}

客戶端訪問網址 :http://IP/nginx_status

  • "Active 表示當前的活動連線數;

  • "server accepts handled 表示已經處理的連線資訊

  • 三個數字依次表示已處理的連線數、成功的 TCP 握手次數、已處理的請求數

實驗2:目錄保護

原理和 apache 的目錄保護原理一樣(利用上一個實驗接著完成)

在狀態統計的 location 中新增:

auth_basic "Welcome to nginx_status!
auth_basic_user_file /usr/local/nginx/html/htpasswd.nginx;

使用 http 的命令 htpasswd 進行使用者密碼檔案的建立( 生成在上面指定的位置)

#htpasswd -c /usr/local/nginx/html/htpasswd.nginx user

重啟 nginx 並再次訪問統計頁面

實驗3:基於 IP 的身份驗證(訪問控制)

接著上一個實驗完成操作

在狀態統計的 location 中新增:

allow 192.168.88.1;
deny 192.168.88.0/24;
# 僅允許 192.168.88.1 訪問伺服器

實驗4:nginx 的虛擬主機 基於域名

提前準備好兩個 網站的 域名 並且規劃好兩個網站網頁存放目錄

在 Nginx 主配置檔案中並列編寫兩個 server 標籤,並分別寫好各自資訊

server
listen 80;
server_name blog. atguigu com;
index index.html index.htm index.php;
root html/blog;
access_log logs /blog-access.log main;
}
server
listen 80
server_name bbs. atguigu.com;
index index.html index.htm index.php;
root html/bbs;
access_log logs/bbs-access.log main;
}

分別訪問兩個不同的域名驗證結果

實驗5:nginx 的反向代理

代理:找別人代替你去完成一件你完不成的事代購 代理的物件是客戶 端

反向代理:替廠家賣東西的人就叫反向代理菸酒代理 代理的物件是伺服器端

在另外一臺機器上安裝 apache 啟動 並填寫測試頁面

在 nginx 伺服器的配置檔案中新增 寫在 某一個網站的 server 標籤內

location / {
proxy_pass http://192.168.88.100:80; # 此處填寫 apache 伺服器的 IP 地址
}

重啟 nginx ,並使用客戶端訪問 測試

實驗6:負載排程(負載均衡)

負載均衡(Load Balance )其意思就是 將任務分攤到多個操作單元上進行執行,例如 Web 伺服器、 FTP伺服器、企業關鍵應用伺服器和其它關鍵任務伺服器等,從而共同完成工作任務。

使用預設的 rr 輪訓演算法,修改 nginx 配置檔案

upstream bbs { 此標籤 在 server 標籤前新增
server 192.168.88.100:80;
server 192.168.88.200:80;
}
server {
......;
# 修改自帶的 loc ation / 的標籤,將原內容刪除,新增下列兩項
location / {
proxy_pass h ttp://bbs; # 新增反向代理,代理地址填寫 upstream 宣告的名字
proxy_set_header Host$host; # 重寫請求頭部 ,保證網站所有頁面都可訪問成功
}
}

開啟並設定兩臺 88.100 & 88.200 的主機

安裝 apache 並設定不同的 index.html 頁面內容 設定不同頁面 是為了看實驗效果

重啟 nginx ,並使用客戶端訪問測試

拓展補充: rr 演算法實現加權輪詢

upstream bbs{
server 192.168.88.100:80 weight=1;
server 192.168.88.200:80 weight=2;
}

實驗7:nginx 實現 https {證書 +rewrite}

安裝 nginx 時,需要將 --with-http_ssl_module 模組開啟

在對應要進行加密的 server 標籤中新增以下內容開啟 SSL

server {
......;
ssl on;
ssl_certificate /usr/local/nginx/conf/ssl/ atguigu.crt;
ssl_certificate_key /usr/local/nginx/conf/ssl/ atguigu.crt;
ssl_session_timeout 5m;
ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
ssl_prefer_server_ciphers on;
ssl_ciphers
"EECDH+CHACHA20:EEC D H+CHACHA20 draft:EECDH+AES128:RSA+AE S128:EECDH+AES256: RSA+AES256:EECDH+3DES:RSA+3DES:!MD5";
}

生成證書和祕鑰檔案

注意:在實驗環境中可以用命令生成測試,在生產環境中必須要在https 證書廠商註冊

opensslgenrsa-out atguigu.key 1024
# 建立伺服器私鑰,生成 RSA 金鑰

opensslreq -new-key atguigu.key -out atguigu.csr
# 需要依次 輸 入國家,地區,組織, email 。最重要的是 有一個 common name ,可以寫你的名字或者域名。 如果為了 https 申請,這個必須和域名吻合,否則會引發瀏覽器警報。生成的 csr 檔案交給 CA 簽名後形成服務端自己的證書

openssl x509 -req-days 365 -sha256 -in atguigu.csr -signkey atguigu.key -out atguigu.crt
# 生成簽字證書

cp atguigu.crt /usr/local/nginx/conf/ssl/ atguigu.crt
cp atguigu.key /usr/loc al/nginx/conf/ssl/ atguigu.key
# 將私鑰和證書複製到指定位置

設定 http 自動跳轉 https 功能

原有的server 標籤修改監聽埠

server {
......;
listen 443;
}

新增以下 server 標籤 利用虛擬主機 +rewrite 的功能

server{
listen 80;
server_name bbs.atguigu.com;
rewrite ^(.*)$ https://bbs.atguigu.com permanent;
root html;
index in dex.html index.htm;
}

重啟 nginx,並測試

27.3 Nginx配置檔案詳解

######Nginx配置檔案nginx.conf中文詳解#####

#定義Nginx執行的使用者和使用者組
user www www;

#nginx程序數,建議設定為等於CPU總核心數。
worker_processes 8;

#全域性錯誤日誌定義型別,[ debug | info | notice | warn | error | crit ]
error_log /usr/local/nginx/logs/error.log info;

#程序pid檔案
pid /usr/local/nginx/logs/nginx.pid;

#指定程序可以開啟的最大描述符:數目
#工作模式與連線數上限
#這個指令是指當一個nginx程序開啟的最多檔案描述符數目,理論值應該是最多開啟檔案數(ulimit -n)與nginx程序數相除,但是nginx分配請求並不是那麼均勻,所以最好與ulimit -n 的值保持一致。
#現在在linux 2.6核心下開啟檔案開啟數為65535,worker_rlimit_nofile就相應應該填寫65535。
#這是因為nginx排程時分配請求到程序並不是那麼的均衡,所以假如填寫10240,總併發量達到3-4萬時就有程序可能超過10240了,這時會返回502錯誤。
worker_rlimit_nofile 65535;


events
{
#參考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ]; epoll模型
#是Linux 2.6以上版本核心中的高效能網路I/O模型,linux建議epoll,如果跑在FreeBSD上面,就用kqueue模型。
#補充說明:
#與apache相類,nginx針對不同的作業系統,有不同的事件模型
#A)標準事件模型
#Select、poll屬於標準事件模型,如果當前系統不存在更有效的方法,nginx會選擇select或poll
#B)高效事件模型
#Kqueue:使用於FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用雙處理器的MacOS X系統使用kqueue可能會造成核心崩潰。
#Epoll:使用於Linux核心2.6版本及以後的系統。
#/dev/poll:使用於Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。
#Eventport:使用於Solaris 10。 為了防止出現核心崩潰的問題, 有必要安裝安全補丁。
use epoll;

#單個程序最大連線數(最大連線數=連線數*程序數)
#根據硬體調整,和前面工作程序配合起來用,儘量大,但是別把cpu跑到100%就行。每個程序允許的最多連線數,理論上每臺nginx伺服器的最大連線數為。
worker_connections 65535;

#keepalive超時時間。
keepalive_timeout 60;

#客戶端請求頭部的緩衝區大小。這個可以根據你的系統分頁大小來設定,一般一個請求頭的大小不會超過1k,不過由於一般系統分頁都要大於1k,所以這裡設定為分頁大小。
#分頁大小可以用命令getconf PAGESIZE 取得。
#[root@web001 ~]# getconf PAGESIZE
#4096
#但也有client_header_buffer_size超過4k的情況,但是client_header_buffer_size該值必須設定為“系統分頁大小”的整倍數。
client_header_buffer_size 4k;

#這個將為開啟檔案指定快取,預設是沒有啟用的,max指定快取數量,建議和開啟檔案數一致,inactive是指經過多長時間檔案沒被請求後刪除快取。
open_file_cache max=65535 inactive=60s;

#這個是指多長時間檢查一次快取的有效資訊。
#語法:open_file_cache_valid time 預設值:open_file_cache_valid 60 使用欄位:http, server, location 這個指令指定了何時需要檢查open_file_cache中快取專案的有效資訊.
open_file_cache_valid 80s;

#open_file_cache指令中的inactive引數時間內檔案的最少使用次數,如果超過這個數字,檔案描述符一直是在快取中開啟的,如上例,如果有一個檔案在inactive時間內一次沒被使用,它將被移除。
#語法:open_file_cache_min_uses number 預設值:open_file_cache_min_uses 1 使用欄位:http, server, location 這個指令指定了在open_file_cache指令無效的引數中一定的時間範圍內可以使用的最小檔案數,如果使用更大的值,檔案描述符在cache中總是開啟狀態.
open_file_cache_min_uses 1;

#語法:open_file_cache_errors on | off 預設值:open_file_cache_errors off 使用欄位:http, server, location 這個指令指定是否在搜尋一個檔案是記錄cache錯誤.
open_file_cache_errors on;
}



#設定http伺服器,利用它的反向代理功能提供負載均衡支援
http
{
#副檔名與檔案型別對映表
include mime.types;

#預設檔案型別
default_type application/octet-stream;

#預設編碼
#charset utf-8;

#伺服器名字的hash表大小
#儲存伺服器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。引數hash bucket size總是等於hash表的大小,並且是一路處理器快取大小的倍數。在減少了在記憶體中的存取次數後,使在處理器中加速查詢hash表鍵值成為可能。如果hash bucket size等於一路處理器快取的大小,那麼在查詢鍵的時候,最壞的情況下在記憶體中查詢的次數為2。第一次是確定儲存單元的地址,第二次是在儲存單元中查詢鍵 值。因此,如果Nginx給出需要增大hash max size 或 hash bucket size的提示,那麼首要的是增大前一個引數的大小.
server_names_hash_bucket_size 128;

#客戶端請求頭部的緩衝區大小。這個可以根據你的系統分頁大小來設定,一般一個請求的頭部大小不會超過1k,不過由於一般系統分頁都要大於1k,所以這裡設定為分頁大小。分頁大小可以用命令getconf PAGESIZE取得。
client_header_buffer_size 32k;

#客戶請求頭緩衝大小。nginx預設會用client_header_buffer_size這個buffer來讀取header值,如果header過大,它會使用large_client_header_buffers來讀取。
large_client_header_buffers 4 64k;

#設定通過nginx上傳檔案的大小
client_max_body_size 8m;

#開啟高效檔案傳輸模式,sendfile指令指定nginx是否呼叫sendfile函式來輸出檔案,對於普通應用設為 on,如果用來進行下載等應用磁碟IO重負載應用,可設定為off,以平衡磁碟與網路I/O處理速度,降低系統的負載。注意:如果圖片顯示不正常把這個改成off。
#sendfile指令指定 nginx 是否呼叫sendfile 函式(zero copy 方式)來輸出檔案,對於普通應用,必須設為on。如果用來進行下載等應用磁碟IO重負載應用,可設定為off,以平衡磁碟與網路IO處理速度,降低系統uptime。
sendfile on;

#開啟目錄列表訪問,合適下載伺服器,預設關閉。
autoindex on;

#此選項允許或禁止使用socke的TCP_CORK的選項,此選項僅在使用sendfile的時候使用
tcp_nopush on;

tcp_nodelay on;

#長連線超時時間,單位是秒
keepalive_timeout 120;

#FastCGI相關引數是為了改善網站的效能:減少資源佔用,提高訪問速度。下面引數看字面意思都能理解。
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 64k;
fastcgi_buffers 4 64k;
fastcgi_busy_buffers_size 128k;
fastcgi_temp_file_write_size 128k;

#gzip模組設定
gzip on; #開啟gzip壓縮輸出
gzip_min_length 1k; #最小壓縮檔案大小
gzip_buffers 4 16k; #壓縮緩衝區
gzip_http_version 1.0; #壓縮版本(預設1.1,前端如果是squid2.5請使用1.0)
gzip_comp_level 2; #壓縮等級
gzip_types text/plain application/x-javascript text/css application/xml; #壓縮型別,預設就已經包含textml,所以下面就不用再寫了,寫上去也不會有問題,但是會有一個warn。
gzip_vary on;

#開啟限制IP連線數的時候需要使用
#limit_zone crawler $binary_remote_addr 10m;



#負載均衡配置
upstream piao.jd.com {

#upstream的負載均衡,weight是權重,可以根據機器配置定義權重。weigth引數表示權值,權值越高被分配到的機率越大。
server 192.168.80.121:80 weight=3;
server 192.168.80.122:80 weight=2;
server 192.168.80.123:80 weight=3;

#nginx的upstream目前支援4種方式的分配
#1、輪詢(預設)
#每個請求按時間順序逐一分配到不同的後端伺服器,如果後端伺服器down掉,能自動剔除。
#2、weight
#指定輪詢機率,weight和訪問比率成正比,用於後端伺服器效能不均的情況。
#例如:
#upstream bakend {
# server 192.168.0.14 weight=10;
# server 192.168.0.15 weight=10;
#}
#2、ip_hash
#每個請求按訪問ip的hash結果分配,這樣每個訪客固定訪問一個後端伺服器,可以解決session的問題。
#例如:
#upstream bakend {
# ip_hash;
# server 192.168.0.14:88;
# server 192.168.0.15:80;
#}
#3、fair(第三方)
#按後端伺服器的響應時間來分配請求,響應時間短的優先分配。
#upstream backend {
# server server1;
# server server2;
# fair;
#}
#4、url_hash(第三方)
#按訪問url的hash結果來分配請求,使每個url定向到同一個後端伺服器,後端伺服器為快取時比較有效。
#例:在upstream中加入hash語句,server語句中不能寫入weight等其他的引數,hash_method是使用的hash演算法
#upstream backend {
# server squid1:3128;
# server squid2:3128;
# hash $request_uri;
# hash_method crc32;
#}

#tips:
#upstream bakend{#定義負載均衡裝置的Ip及裝置狀態}{
# ip_hash;
# server 127.0.0.1:9090 down;
# server 127.0.0.1:8080 weight=2;
# server 127.0.0.1:6060;
# server 127.0.0.1:7070 backup;
#}
#在需要使用負載均衡的server中增加 proxy_pass http://bakend/;

#每個裝置的狀態設定為:
#1.down表示單前的server暫時不參與負載
#2.weight為weight越大,負載的權重就越大。
#3.max_fails:允許請求失敗的次數預設為1.當超過最大次數時,返回proxy_next_upstream模組定義的錯誤
#4.fail_timeout:max_fails次失敗後,暫停的時間。
#5.backup: 其它所有的非backup機器down或者忙的時候,請求backup機器。所以這臺機器壓力會最輕。

#nginx支援同時設定多組的負載均衡,用來給不用的server來使用。
#client_body_in_file_only設定為On 可以講client post過來的資料記錄到檔案中用來做debug
#client_body_temp_path設定記錄檔案的目錄 可以設定最多3層目錄
#location對URL進行匹配.可以進行重定向或者進行新的代理 負載均衡
}



#虛擬主機的配置
server
{
#監聽埠
listen 80;

#域名可以有多個,用空格隔開
server_name www.jd.com jd.com;
index index.html index.htm index.php;
root /data/www/jd;

#對******進行負載均衡
location ~ .*.(php|php5)?$
{
fastcgi_pass 127.0.0.1:9000;
fastcgi_index index.php;
include fastcgi.conf;
}

#圖片快取時間設定
location ~ .*.(gif|jpg|jpeg|png|bmp|swf)$
{
expires 10d;
}

#JS和CSS快取時間設定
location ~ .*.(js|css)?$
{
expires 1h;
}

#日誌格式設定
#$remote_addr與$http_x_forwarded_for用以記錄客戶端的ip地址;
#$remote_user:用來記錄客戶端使用者名稱稱;
#$time_local: 用來記錄訪問時間與時區;
#$request: 用來記錄請求的url與http協議;
#$status: 用來記錄請求狀態;成功是200,
#$body_bytes_sent :記錄傳送給客戶端檔案主體內容大小;
#$http_referer:用來記錄從那個頁面連結訪問過來的;
#$http_user_agent:記錄客戶瀏覽器的相關資訊;
#通常web伺服器放在反向代理的後面,這樣就不能獲取到客戶的IP地址了,通過$remote_add拿到的IP地址是反向代理伺服器的iP地址。反向代理伺服器在轉發請求的http頭資訊中,可以增加x_forwarded_for資訊,用以記錄原有客戶端的IP地址和原來客戶端的請求的伺服器地址。
log_format access '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" $http_x_forwarded_for';

#定義本虛擬主機的訪問日誌
access_log /usr/local/nginx/logs/host.access.log main;
access_log /usr/local/nginx/logs/host.access.404.log log404;

#對 "/" 啟用反向代理
location / {
proxy_pass http://127.0.0.1:88;
proxy_redirect off;
proxy_set_header X-Real-IP $remote_addr;

#後端的Web伺服器可以通過X-Forwarded-For獲取使用者真實IP
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

#以下是一些反向代理的配置,可選。
proxy_set_header Host $host;

#允許客戶端請求的最大單檔案位元組數
client_max_body_size 10m;

#緩衝區代理緩衝使用者端請求的最大位元組數,
#如果把它設定為比較大的數值,例如256k,那麼,無論使用firefox還是IE瀏覽器,來提交任意小於256k的圖片,都很正常。如果註釋該指令,使用預設的client_body_buffer_size設定,也就是作業系統頁面大小的兩倍,8k或者16k,問題就出現了。
#無論使用firefox4.0還是IE8.0,提交一個比較大,200k左右的圖片,都返回500 Internal Server Error錯誤
client_body_buffer_size 128k;

#表示使nginx阻止HTTP應答程式碼為400或者更高的應答。
proxy_intercept_errors on;

#後端伺服器連線的超時時間_發起握手等候響應超時時間
#nginx跟後端伺服器連線超時時間(代理連線超時)
proxy_connect_timeout 90;

#後端伺服器資料回傳時間(代理髮送超時)
#後端伺服器資料回傳時間_就是在規定時間之內後端伺服器必須傳完所有的資料
proxy_send_timeout 90;

#連線成功後,後端伺服器響應時間(代理接收超時)
#連線成功後_等候後端伺服器響應時間_其實已經進入後端的排隊之中等候處理(也可以說是後端伺服器處理請求的時間)
proxy_read_timeout 90;

#設定代理伺服器(nginx)儲存使用者頭資訊的緩衝區大小
#設定從被代理伺服器讀取的第一部分應答的緩衝區大小,通常情況下這部分應答中包含一個小的應答頭,預設情況下這個值的大小為指令proxy_buffers中指定的一個緩衝區的大小,不過可以將其設定為更小
proxy_buffer_size 4k;

#proxy_buffers緩衝區,網頁平均在32k以下的設定
#設定用於讀取應答(來自被代理伺服器)的緩衝區數目和大小,預設情況也為分頁大小,根據作業系統的不同可能是4k或者8k
proxy_buffers 4 32k;

#高負荷下緩衝大小(proxy_buffers*2)
proxy_busy_buffers_size 64k;

#設定在寫入proxy_temp_path時資料的大小,預防一個工作程序在傳遞檔案時阻塞太長
#設定快取資料夾大小,大於這個值,將從upstream伺服器傳
proxy_temp_file_write_size 64k;
}


#設定檢視Nginx狀態的地址
location /NginxStatus {
stub_status on;
access_log on;
auth_basic "NginxStatus";
auth_basic_user_file confpasswd;
#htpasswd檔案的內容可以用apache提供的htpasswd工具來產生。
}

#本地動靜分離反向代理配置
#所有jsp的頁面均交由tomcat或resin處理
location ~ .(jsp|jspx|do)?$ {
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://127.0.0.1:8080;
}

#所有靜態檔案由nginx直接讀取不經過tomcat或resin
location ~ .*.(htm|html|gif|jpg|jpeg|png|bmp|swf|ioc|rar|zip|txt|flv|mid|doc|ppt|
pdf|xls|mp3|wma)$
{
expires 15d;
}

location ~ .*.(js|css)?$
{
expires 1h;
}
}
}
######Nginx配置檔案nginx.conf中文詳解#####

本文摘抄或總結其他筆記,筆記不涉及任何商業用途,如果侵權請及時聯絡處理