1. 程式人生 > >Nginx簡介及負載均衡配置

Nginx簡介及負載均衡配置

1.Nginx簡介
Nginx是一款高效能的http 伺服器/反向代理伺服器及電子郵件(IMAP/POP3)代理伺服器。由俄羅斯的程式設計師Igor Sysoev所開發,官方測試nginx能夠支支撐5萬併發連結,並且cpu、記憶體等資源消耗卻非常低,執行非常穩定。

2.Nginx應用場景
1、http伺服器。Nginx是一個http服務可以獨立提供http服務。可以做網頁靜態伺服器。
2、虛擬主機。可以實現在一臺伺服器虛擬出多個網站。例如個人網站使用的虛擬主機。
3、反向代理,負載均衡。當網站的訪問量達到一定程度後,單臺伺服器不能滿足使用者的請求時,需要用多臺伺服器叢集可以使用nginx做反向代理。並且多臺伺服器可以平均分擔負載,不會因為某臺伺服器負載高宕機而某臺伺服器閒置的情況。

3.概念解釋
3.1正向代理
所謂正向代理其實就和我們平時所做的翻牆一樣,例如:當我們想要訪問某些國外的**網站時,因為某些原因我們無法訪問到,這時候我們就可以找代理,代理有能力訪問到那個網站,而我們只需要訪問代理。就可以得到那個網站的內容了。且代理可以決定是否將使用者資訊告訴給網站。

總的來說正向代理是一個位於客戶端與原始伺服器之間的一個代理伺服器,為了從原始伺服器獲取內容,客戶端向代理髮送一個請求並指定目標伺服器(原始伺服器),然後代理伺服器向原始伺服器轉交請求並獲取內容交給目標伺服器,客戶端必須進行特殊的設定才能使用正向代理。

如下圖所示。
這裡寫圖片描述

3.2反向代理
與正向代理相反,舉個例子:當用戶訪問某個伺服器下的內容時,其實該伺服器並無此內容,但是該伺服器通過反向代理從另一臺伺服器中獲取到了使用者想要的內容,並返回給了使用者。使用者以為是在此伺服器下獲取到的內容,其實並不是。

總的來說,反向代理使用者不需要進行特殊的設定,對使用者來說他以為訪問得到的內從是從原始伺服器中得到的。其實是客戶端向反向代理的名稱空間中傳送普通請求,接著反向代理將判斷向何處(原始伺服器)轉交請求,並將獲得的內容返回給客戶端,就像這些內容 原本就是它自己的一樣。 如圖所示
這裡寫圖片描述

4.2 安裝
4.2.1 安裝環境
安裝nginx需要如下環境
1.gcc
編譯依賴gcc環境,如果沒有gcc環境,需要安裝gcc

yum install gcc-c++

2.PCRE
PCRE(Perl Compatible Regular Expressions)是一個Perl庫,包括 perl 相容的正則表示式庫。nginx的http模組使用pcre來解析正則表示式,所以需要在linux上安裝pcre庫。

yum install -y pcre pcre-devel

3.zlib
lib庫提供了很多種壓縮和解壓縮的方式,nginx使用zlib對http包的內容進行gzip,所以需要在linux上安裝zlib庫。

yum install -y zlib zlib-devel

4.openssl
OpenSSL 是一個強大的安全套接字層密碼庫,囊括主要的密碼演算法、常用的金鑰和證書封裝管理功能及SSL協議,並提供豐富的應用程式供測試或其它目的使用。
nginx不僅支援http協議,還支援https(即在ssl協議上傳輸http),所以需要在linux安裝openssl庫。

yum install -y openssl openssl-devel

4.2.2 編譯安裝
將nginx-1.8.0.tar.gz拷貝至linux伺服器。

解壓:
tar -zxvf nginx-1.8.0.tar.gz
cd nginx-1.8.0

執行如下命令

./configure \
–prefix=/usr/local/nginx \
–pid-path=/var/run/nginx/nginx.pid \
–lock-path=/var/lock/nginx.lock \
–error-log-path=/var/log/nginx/error.log \
–http-log-path=/var/log/nginx/access.log \
–with-http_gzip_static_module \
–http-client-body-temp-path=/var/temp/nginx/client \
–http-proxy-temp-path=/var/temp/nginx/proxy \
–http-fastcgi-temp-path=/var/temp/nginx/fastcgi \
–http-uwsgi-temp-path=/var/temp/nginx/uwsgi \
–with-http_stub_status_module \
–with-http_ssl_module \
–http-scgi-temp-path=/var/temp/nginx/scgi

注意:上邊將臨時檔案目錄指定為/var/temp/nginx,需要在/var下建立temp/nginx目錄

開始編譯和安裝
make
make install

安裝成功檢視安裝目錄 :
這裡寫圖片描述

4.3啟動Nginx
啟動

cd /usr/local/nginx/sbin/
./nginx

檢視

ps -aux | grep nginx

這裡寫圖片描述

其中6844為Nginx的主程序id,6845為Nginx的工作程序id

4.3退出Nginx
cd /usr/local/nginx/sbin
./nginx -s quit

4.4 重啟Nginx
cd /usr/local/nginx/sbin
./nginx -s reload

4.5 Nginx測試
訪問對應安裝Nginx的linux的ip,出現如下介面即安裝成功。
這裡寫圖片描述

5.搭建負載均衡
5.1 什麼是負載均衡
負載均衡 建立在現有網路結構之上,它提供了一種廉價有效透明的方法擴充套件網路裝置和伺服器的頻寬、增加吞吐量、加強網路資料處理能力、提高網路的靈活性和可用性。
負載均衡,英文名稱為Load Balance,其意思就是分攤到多個操作單元上進行執行,例如Web伺服器、FTP伺服器、企業關鍵應用伺服器和其它關鍵任務伺服器等,從而共同完成工作任務。

5.2 負載均衡的優點
簡單的來說。可以減少伺服器的壓力,將原本一臺伺服器所要承受的訪問量分給了多臺,並提高了專案的可用性,當一臺伺服器掛掉的時候也不會導致整個專案癱瘓。

5.3 nginx實現負載均衡

nginx的負載均衡有4種模式:

1)、輪詢(預設)
每個請求按時間順序逐一分配到不同的後端伺服器,如果後端伺服器down掉,能自動剔除。
2)、weight
指定輪詢機率,weight和訪問比率成正比,用於後端伺服器效能不均的情況。
2)、ip_hash
每個請求按訪問ip的hash結果分配,這樣每個訪客固定訪問一個後端伺服器,可以解決session的問題。
3)、fair(第三方)
按後端伺服器的響應時間來分配請求,響應時間短的優先分配。
4)、url_hash(第三方)

配置方法:
開啟nginx.cnf檔案

在http節點下新增upstream節點:

upstream webname {  
  server 192.168.0.1:8080;  
  server 192.168.0.2:8080;  
}

其中webname是自己取的名字,最後會通過這個名字在url裡訪問的,像上面這個例子一樣什麼都不加就是預設的輪詢,第一個請求過來訪問第一個server,第二個請求來訪問第二個server。依次輪著來。

upstream webname {  
  server 192.168.0.1:8080 weight 2;  
  server 192.168.0.2:8080 weight 1;  
}

這個weight也很好理解,權重大的被訪問的概率就大,上面這個例子的話,訪問2次server1,訪問一次server2

upstream webname {  
  ip_hash;  
  server 192.168.0.1:8080;  
  server 192.168.0.2:8080;  
}

ip_hash的配置也很簡單,直接加一行就可以了,這樣只要是同一個ip過來的都會到同一臺server上

然後在server節點下進行配置:

location /name {  
    proxy_pass http://webname/name/;  
    proxy_http_version 1.1;  
    proxy_set_header Upgrade $http_upgrade;  
    proxy_set_header Connection "upgrade";  
}

proxy_pass裡面用上面配的webname代替了原來的ip地址。

這樣就基本完成了負載均衡的配置。

下面是主備的配置:

還是在upstream裡面

upstream webname {  
  server 192.168.0.1:8080;  
  server 192.168.0.2:8080 backup;  
}

設定某一個節點為backup,那麼一般情況下所有請求都訪問server1,當server1掛掉或者忙的的時候才會訪問server2

upstream webname {  
  server 192.168.0.1:8080;  
  server 192.168.0.2:8080 down;  
}

設定某個節點為down,那麼這個server不參與負載。

實現例項
負載均衡是我們大流量網站要做的一個東西,下面我來給大家介紹在Nginx伺服器上進行負載均衡配置方法,希望對有需要的同學有所幫助哦

負載均衡

先來簡單瞭解一下什麼是負載均衡,單從字面上的意思來理解就可以解釋N臺伺服器平均分擔負載,不會因為某臺伺服器負載高宕機而某臺伺服器閒置的情況。那麼負載均衡的前提就是要有多臺伺服器才能實現,也就是兩臺以上即可。

測試環境
由於沒有伺服器,所以本次測試直接host指定域名,然後在VMware裡安裝了三臺CentOS。

測試域名 :a.com

A伺服器IP :192.168.5.149 (主)

B伺服器IP :192.168.5.27

C伺服器IP :192.168.5.126

部署思路
A伺服器做為主伺服器,域名直接解析到A伺服器(192.168.5.149)上,由A伺服器負載均衡到B伺服器(192.168.5.27)與C伺服器(192.168.5.126)上。

域名解析

由於不是真實環境,域名就隨便使用一個a.com用作測試,所以a.com的解析只能在hosts檔案設定。

開啟:C:WindowsSystem32driversetchosts

在末尾新增

192.168.5.149    a.com

儲存退出,然後啟動命令模式ping下看看是否已設定成功

從截圖上看已成功將a.com解析到192.168.5.149IP

A伺服器nginx.conf設定
開啟nginx.conf,檔案位置在nginx安裝目錄的conf目錄下。

在http段加入以下程式碼

upstream a.com { 
      server  192.168.5.126:80; 
      server  192.168.5.27:80; 
} 

server{ 
    listen 80; 
    server_name a.com; 
    location / { 
        proxy_pass        http://a.com; 
        proxy_set_header  Host            $host; 
        proxy_set_header  X-Real-IP        $remote_addr; 
        proxy_set_header  X-Forwarded-For  $proxy_add_x_forwarded_for; 
    } 
}

儲存重啟nginx

B、C伺服器nginx.conf設定
開啟nginx.confi,在http段加入以下程式碼

server{ 
    listen 80; 
    server_name a.com; 
    index index.html; 
    root /data0/htdocs/www; 
}

儲存重啟nginx

測試
當訪問a.com的時候,為了區分是轉向哪臺伺服器處理我分別在B、C伺服器下寫一個不同內容的index.html檔案,以作區分。

開啟瀏覽器訪問a.com結果,重新整理會發現所有的請求均分別被主伺服器(192.168.5.149)分配到B伺服器(192.168.5.27)與C伺服器(192.168.5.126)上,實現了負載均衡效果。

B伺服器處理頁面

C伺服器處理頁面

假如其中一臺伺服器宕機會怎樣?
當某臺伺服器宕機了,是否會影響訪問呢?

我們先來看看例項,根據以上例子,假設C伺服器192.168.5.126這臺機子宕機了(由於無法模擬宕機,所以我就把C伺服器關機)然後再來訪問看看。

訪問結果:

我們發現,雖然C伺服器(192.168.5.126)宕機了,但不影響網站訪問。這樣,就不會擔心在負載均衡模式下因為某臺機子宕機而拖累整個站點了。

如果b.com也要設定負載均衡怎麼辦?
很簡單,跟a.com設定一樣。如下:

假設b.com的主伺服器IP是192.168.5.149,負載均衡到192.168.5.150和192.168.5.151機器上

現將域名b.com解析到192.168.5.149IP上。

在主伺服器(192.168.5.149)的nginx.conf加入以下程式碼:

upstream b.com { 
      server  192.168.5.150:80; 
      server  192.168.5.151:80; 
} 

server{ 
    listen 80; 
    server_name b.com; 
    location / { 
        proxy_pass        http://b.com; 
        proxy_set_header  Host            $host; 
        proxy_set_header  X-Real-IP        $remote_addr; 
        proxy_set_header  X-Forwarded-For  $proxy_add_x_forwarded_for; 
    } 
}

儲存重啟nginx

在192.168.5.150與192.168.5.151機器上設定nginx,開啟nginx.conf在末尾新增以下程式碼:

server{ 
    listen 80; 
    server_name b.com; 
    index index.html; 
    root /data0/htdocs/www; 
}

儲存重啟nginx

完成以後步驟後即可實現b.com的負載均衡配置。

主伺服器不能提供服務嗎?
以上例子中,我們都是應用到了主伺服器負載均衡到其它伺服器上,那麼主伺服器本身能不能也加在伺服器列表中,這樣就不會白白浪費拿一臺伺服器純當做轉發功能,而是也參與到提供服務中來。

如以上案例三臺伺服器:

A伺服器IP :192.168.5.149 (主)

B伺服器IP :192.168.5.27

C伺服器IP :192.168.5.126

我們把域名解析到A伺服器,然後由A伺服器轉發到B伺服器與C伺服器,那麼A伺服器只做一個轉發功能,現在我們讓A伺服器也提供站點服務。

我們先來分析一下,如果新增主伺服器到upstream中,那麼可能會有以下兩種情況發生:

1、主伺服器轉發到了其它IP上,其它IP伺服器正常處理;

2、主伺服器轉發到了自己IP上,然後又進到主伺服器分配IP那裡,假如一直分配到本機,則會造成一個死迴圈。

怎麼解決這個問題呢?因為80埠已經用來監聽負載均衡的處理,那麼本伺服器上就不能再使用80埠來處理a.com的訪問請求,得用一個新的。於是我們把主伺服器的nginx.conf加入以下一段程式碼:

server{ 
    listen 8080; 
    server_name a.com; 
    index index.html; 
    root /data0/htdocs/www; 
}

重啟nginx,在瀏覽器輸入a.com:8080試試看能不能訪問。結果可以正常訪問

既然能正常訪問,那麼我們就可以把主伺服器新增到upstream中,但是埠要改一下,如下程式碼:

upstream a.com { 
      server  192.168.5.126:80; 
      server  192.168.5.27:80; 
      server  127.0.0.1:8080; 
}

由於這裡可以新增主伺服器IP192.168.5.149或者127.0.0.1均可以,都表示訪問自己。

重啟Nginx,然後再來訪問a.com看看會不會分配到主伺服器上。

主伺服器也能正常加入服務了。

最後
一、負載均衡不是nginx獨有,著名鼎鼎的apache也有,但效能可能不如nginx。

二、多臺伺服器提供服務,但域名只解析到主伺服器,而真正的伺服器IP不會被ping下即可獲得,增加一定安全性。

三、upstream裡的IP不一定是內網,外網IP也可以。不過經典的案例是,區域網中某臺IP暴露在外網下,域名直接解析到此IP。然後又這臺主伺服器轉發到內網伺服器IP中。

四、某臺伺服器宕機、不會影響網站正常執行,Nginx不會把請求轉發到已宕機的IP上