1. 程式人生 > 其它 >尚矽谷 NginX 筆記

尚矽谷 NginX 筆記

尚矽谷 NginX 筆記

在此感謝 尚矽谷Nginx教程由淺入深 教程

NginX簡介

什麼是Nginx

​ Nginx 是高效能的 HTTP 和反向代理的伺服器可以作為靜態網頁的web伺服器,處理高併發能力是十分強大的,特點是佔有記憶體少,併發能力強,能經受高負載的考驗,有報告表明能支援高達 50000 個併發連線數。

重要概念

正向代理

  • 先在客戶端(瀏覽器)配置代理伺服器,通過代理伺服器才能對網際網路中的資源進行訪問。

反向代理

  • 客戶端對代理是無感知的,因為客戶端不需要任何配置就可以訪問,我們只需要將請求傳送到反向代理伺服器,由反向代理伺服器去選擇目標伺服器獲取資料後,返回給客戶端,此時反向代理伺服器和目標伺服器對外就是一個伺服器
  • 暴露的是代理伺服器地址,隱藏了真實伺服器 IP 地址
  • 對使用者來講,自己是與代理伺服器進行請求訪問,實際上是請求到達代理伺服器後,由代理伺服器去不同ip地址或埠獲取資源,最終返回。

負載均衡

問題提出:

​ 在早期的架構模式中,能應對併發請求相對較少的情況,通過客戶端傳送請求,伺服器處理請求並可能返回資料庫的互動資料。

​ 然而在資訊數量不斷增長和訪問量、資料量的增大,這種架構往往支撐不了,需要增加伺服器的數量,將請求分發到各個伺服器上。

什麼是負載均衡:

  • 增加伺服器的數量,然後將請求分發到各個伺服器上,將原先請求集中到單個伺服器上的情況改為將請求分發到多個伺服器上,將負載分發到不同的伺服器,也就是負責均衡。

動靜分離

傳統方式:

  • 伺服器端部署有靜態資源(JS、HTML等)和動態資源(jsp、servlet等)

為了加快網站解析速度,採用動靜分離的方式:

  • 把動態頁面和靜態頁面由不同的伺服器來解析,加快解析速度,降低原來單個伺服器的壓力。

安裝NginX

  1. 安裝 openssl 、zlib 、 gcc 依賴

    yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel

  1. 安裝 pcre 依賴
  • 進入 usr/src 目錄下,直接向xshell中拖入下載好的 pcre-8.37.tar.gz 壓縮包
  • 使用解壓命令 tar –xvf pcre-8.37.tar.gz
  • 進入解壓後的 pcre-8.37 資料夾中,並使用 ./configure 命令
  • 在pcre-8.37 資料夾中,最後使用 make && make install 命令,即先編譯再安裝
  1. 同理,在usr/src 目錄下,直接向xshell中拖入下載好的 nginx.tar.gz 壓縮包
  • 解壓,./configure,make && make install
  • 進入目錄 /usr/local/nginx/sbin/nginx 啟動服務
  1. 檢查是否安裝成功
  • 在瀏覽器中輸入linux地址,如http://192.168.xx.xxx/

  • 如果沒有顯示頁面,可以關閉防火牆:

    關閉防火牆:systemctl stop firewalld

    開啟防火牆:systemctl start firewalld

    檢視防火牆狀態:systemctl status firewalld

  • 檢查瀏覽器,出現下面的頁面,則安裝成功!

  • 為了讓防火牆不攔截Nginx的埠,可以進行如下設定:
    • 檢視開放的埠號:firewall-cmd --list-all
    • 設定開放的埠號:firewall-cmd --add-port=80/tcp --permanent
    • 重啟防火牆:firewall-cmd --reload

常用命令

進入nginx目錄中,nginx命令必須在nginx的sbin目錄下進行使用:

cd /usr/local/nginx/sbin

  1. 檢視版本號

./nginx -v

  1. 啟動nginx

./nginx

  1. 停止nginx

./nginx -s stop

  1. 重新載入nginx

./nginx -s reload

配置檔案

  1. nginx配置檔案位置

    cd /usr/local/nginx/conf/nginx.conf

  2. 配置檔案的內容

  • 全域性塊:

    從配置檔案開始到 events 塊之間的內容,主要會設定一些影響 nginx 伺服器整體執行的配置指令,主要包括配置執行 Nginx 伺服器的使用者(組)、允許生成的 worker process 數,程序 PID 存放路徑、日誌存放路徑和型別以及配置檔案的引入等。

    ​ 例如:worker_processes 值越大,可以支援的併發處理量也越多

  • events塊:

    ​ events 塊涉及的指令主要影響 Nginx 伺服器與使用者的網路連線,常用的設定包括是否開啟對多 work process 下的網路連線進行序列化,是否允許同時接收多個網路連線,選取哪種事件驅動模型來處理連線請求,每個 word process 可以同時支援的最大連線數等。

  • http塊:

    ​ 配置中最頻繁的部分,代理、快取和日誌定義等絕大多數功能和第三方模組的配置都在這裡,需要注意的是:http 塊也可以包括 http 全域性塊、server 塊

    • http 全域性塊

      http 全域性塊配置的指令包括檔案引入、MIME-TYPE 定義、日誌自定義、連線超時時間、單鏈接請求數上限等。

    • server 塊

      • 每個 http 塊可以包括多個 server 塊,而每個 server 塊就相當於一個虛擬主機
      • 每個 server 塊也分為全域性 server 塊,以及可以同時包含多個 locaton 塊

配置例項

反向代理 例項一

1、實現的效果

開啟瀏覽器,在瀏覽器位址列輸入地址 www.123.com,跳轉到 liunx 系統 tomcat 主頁 面中

2、準備工作

  • 在linux系統中安裝Tomcat,使用預設埠8080

    • 將tomcat安裝檔案放到linux系統下的usr/src資料夾中,解壓
    • 進入tomcat的bin目錄中,./startup.sh啟動tomcat伺服器
  • 新增對外開放訪問埠的許可權

    新增8080埠:firewall-cmd --add-port=8080/tcp --permanent

    過載防火牆:firewall-cmd –reload

    檢視已經開放的埠號: firewall-cmd --list-all

  • 測試:在windows系統中輸入linux伺服器,檢視是否能夠訪問到tomcat伺服器頁面

  • 具體操作:

  1. 在windows系統中的host檔案中,新增域名與ip地址之間的對映,以方便在瀏覽器輸入www.123.com之後,能夠跳轉到nginx伺服器。

  1. 在nginx的配置檔案中,進行請求轉發的相關配置(反向代理配置)

  2. 測試:經過nginx伺服器的請求轉發,最終訪問www.123.com,轉發到tomcat伺服器上

反向代理 例項二

  1. 實現效果:

    使用 nginx 反向代理:根據訪問的路徑,需要nginx伺服器處理,將請求跳轉到不同埠的服務中,其中 nginx 伺服器監聽埠為 9001

  2. 準備工作

  • 第一步:準備兩個tomcat伺服器,一個 8001 埠,一個 8002 埠,並準備好測試的頁面
  • 第二步:建立資料夾( edu 和 vod )和測試頁面
  1. 具體配置
  • 找到 nginx 配置檔案,進行反向代理配置

    - location 指令說明
    • 該指令用於匹配 URL

    • 語法如下:

      • = :用於不含正則表示式的 uri ,要求請求字串與 uri 嚴格匹配,如果匹配成功,就停止繼續向下搜尋並立即處理該請求。
      • ~:用於表示 uri 包含正則表示式,並且區分大小寫
      • ~*:用於表示 uri 包含正則表示式,並且不區分大小寫
      • ^~:用於不含正則表示式的 uri 前,要求 Nginx 伺服器找到標識 uri 和請求字串匹配度最高的 location 後,立即使用此 location 處理請求,而不再使用 location 塊中的正則 uri 和請求字串做匹配。
      • 注意:如果 uri 包含正則表示式,則必須要有 ~ 或者 ~ 標識。*
  • 開放對外訪問的埠號 9001 8080 8081

  1. 測試

負載均衡 例項

  1. 實現效果

    瀏覽器位址列中,輸入地址 http://192.168.17.129/edu/a.html,有負載均衡的效果,即:平均到 8080 和 8081 埠中

  2. 準備工作

  • 第一步:準備兩臺 tomcat 伺服器,一臺 8080,一臺 8081
  • 第二步:在兩臺 tomcat 裡面 webapps 目錄中,建立名稱是 edu 資料夾,在 edu 資料夾中建立 頁面 a.html,用於測試
  1. 具體配置(這裡主要是平均分配,即輪詢

    在 nginx 的配置檔案中進行負載均衡的配置(主要是在http塊中,進行配置):

    • 使用 upstream 命令:新增承擔負載的兩個伺服器

    • 在server塊中進行配置:server_name和listen是nginx伺服器的地址埠,在location塊中配置 proxy_pass ,將承擔均衡負載的兩個伺服器引入,每次nginx伺服器就會將負載分攤到不同的服務單元。

  2. 測試:請求顯示的頁面在8080和8081埠下的頁面,來回切換

  3. nginx 分配伺服器策略

  • 輪詢(預設)

    • 每個請求按時間順序逐一分配到不同的後端伺服器,如果後端伺服器 down 掉,能自動剔除。
  • weight

    • weight 代表權重,預設為 1,權重越高被分配的客戶端越多
    • 指定輪詢機率,weight 和訪問比率成正比,用於後端伺服器效能不均的情況
  • ip_hash

    • 每個請求按訪問 ip 的 hash 結果分配,這樣每個訪客固定訪問一個後端伺服器,可以解決 session 的問題
  • fair(第三方)

    • 按後端伺服器的響應時間來分配請求,響應時間短的優先分配

動靜分離 例項

  1. 基本介紹

    把動態跟靜態請求分開,動靜分離從目前實現角度來講大致分為兩種:

    • 1、純粹把靜態檔案獨立成單獨的域名,放在獨立的伺服器上,也是目前主流推崇的方案
    • 2、動態跟靜態檔案混合在一起釋出,通過 nginx 來分開

    通過 location 指定不同的字尾名實現不同的請求轉發

    通過 expires 引數設定(在location中進行新增),可以使瀏覽器快取過期時間,減少與伺服器之前的請求和流量:

    ​ 具體 Expires 定義:是給一個資源設定一個過期時間,也就是說無需去服務端驗證,直接通過瀏覽器自身確認是否過期即可, 所以不會產生額外的流量。此種方法非常適合不經常變動的資源。(如果經常更新的檔案, 不建議使用 Expires 來快取),我這裡設定 3d,表示在這 3 天之內訪問這個URL,傳送一個請求,比對伺服器該檔案最後更新時間沒有變化,則不會從伺服器抓取,返回狀態碼 304,如果有修改,則直接從伺服器重新下載,返回狀態碼 200。

  1. 準備工作
  • 在linux系統中準備靜態資源,比如image、www兩個資料夾,存放靜態資源
  1. 具體配置
  • 在nginx配置檔案中進行配置,找到 nginx 安裝目錄,開啟/conf/nginx.conf 配置檔案

    - 1. 新增監聽埠和訪問地址 2. 每一個靜態資源訪問目錄對應一段 location,其中 **root 表示資源在linux中根目錄的位置** 3. autoindex on:顯示靜態資源目錄下的資源列表
  1. 測試
  • 最後檢查 Nginx 配置是否正確即可,然後測試動靜分離是否成功,之需要刪除後端 tomcat 伺服器上的某個靜態檔案,檢視是否能訪問,如果可以訪問說明靜態資源 nginx 直接返回了,不走後端 tomcat 伺服器

  • 訪問 image(也可以直接在路徑中新增想要訪問的靜態資源名)

  • 訪問 www

搭建高可用叢集

Keepalived + Nginx 高可用叢集(主從模式)

  1. 什麼是nginx高可用
  • 之前的配置中,只有一臺nginx伺服器,如果這臺伺服器發生了宕機,那麼客戶端就無法進行請求的訪問,高可用叢集就是為了解決這樣一個問題。
    1. 兩臺nginx伺服器,一臺主伺服器和一臺從伺服器,用來保證nginx的服務不會因為一臺伺服器的宕機而崩潰
    2. 需要一個軟體 Keepalived 支援
      • Keepalived的作用是檢測伺服器的狀態,如果有一臺web伺服器宕機,或工作出現故障,Keepalived將檢測到,並將有故障的伺服器從系統中剔除,同時使用其他伺服器代替該伺服器的工作,當伺服器工作正常後Keepalived自動將伺服器加入到伺服器群中,這些工作全部自動完成,不需要人工干涉,需要人工做的只是修復故障的伺服器。
    3. 對外暴露一個虛擬ip,通過路由轉發到這兩臺nginx伺服器進行請求轉發的處理
  1. 配置高可用叢集的準備工作
    1. 需要兩臺nginx伺服器,比如:192.168.17.129 和 192.168.17.131

    2. 在兩臺伺服器安裝 nginx

    3. 在兩臺伺服器安裝 keepalived

      • yum install keepalived –y

      • 安裝之後,在 etc 裡面生成目錄 keepalived,有檔案 keepalived.conf

    4. 完成高可用配置(主從配置)

      • 修改/etc/keepalived/keepalivec.conf 配置檔案
      global_defs { #全域性配置
      	notification_email {
               [email protected]
               [email protected]
               [email protected]
       	}
           notification_email_from [email protected]
           smtp_server 192.168.17.129
           smtp_connect_timeout 30
           router_id LVS_DEVEL #主機的名字
      }
      vrrp_script chk_http_port { # 檢測指令碼配置
           script "/usr/local/src/nginx_check.sh" # 指令碼檔案位置
           interval 2 # 檢測指令碼執行的間隔
           weight 2 # 權重,一旦校測指令碼中的條件成立,就修改為這個新權重(比如檢測到這個伺服器宕機,那麼就將權重降低)
      }
      vrrp_instance VI_1 { # 虛擬ip配置
          state BACKUP # 備份伺服器上將 MASTER 改為 BACKUP 
          interface ens33 //網絡卡
          virtual_router_id 51 # 主、備機的 virtual_router_id 必須相同
          priority 90 # 主、備機取不同的優先順序,主機值較大,備份機值較小(主機100,備機90)
          advert_int 1 # 預設每隔一秒檢測主機狀態
          authentication {
               auth_type PASS
               auth_pass 1111
           }
           virtual_ipaddress {
           	192.168.17.50 // VRRP H 虛擬地址 (對外暴露的虛擬ip地址)
           }
      }
      
      • 在/usr/local/src 新增檢測指令碼(檢測主伺服器是否宕機掛掉)
      #!/bin/bash
      A=`ps -C nginx –no-header |wc -l`
      if [ $A -eq 0 ];then
           /usr/local/nginx/sbin/nginx # nginx位置
           sleep 2
           if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
           	killall keepalived
           fi
      fi
      
      • 把兩臺伺服器上 nginx 和 keepalived 啟動
        • 啟動 nginx:./nginx
        • 啟動 keepalived:systemctl start keepalived.service
  1. 最終測試
  • 在瀏覽器位址列輸入 虛擬 ip 地址 192.168.17.50
  • 把主伺服器(192.168.17.129)nginx 和 keepalived 停止,再輸入 192.168.17.50,內部訪問的是備用nginx伺服器(192.168.17.131)

Nginx 原理解析

1、採用 master 和 worker 的工作方式

  • mater作為管理者,管理和監控工作程序
  • worker作為實際處理程序,採用 爭搶 的方式對處理請求進行處理

2、worker是如何工作的

3、一個 master 和多個 woker 有好處

  • 可以使用 nginx –s reload 熱部署,利用 nginx 進行熱部署操作
    • 無需重新啟動 nginx,避免伺服器停止服務
    • 倘若有worker正在處理請求,那麼只是餘下的worker進行熱部署操作
  • 每個 woker 是獨立的程序,如果有其中的一個 woker 出現問題,其他 woker 獨立的, 繼續進行爭搶,實現請求過程,不會造成服務中斷

4、設定多少個 woker 合適

  • worker 數和伺服器的 cpu 數相等是最為適宜的

5、連線數 worker_connection

  • 傳送請求,佔用了 woker 的幾個連線數?
    • 2 或者 4
      • 如果是訪問靜態資源,client傳送請求,worker響應
      • 如果是訪問動態資源,那麼worker在上面的基礎上,會多增加兩個連線,用於與tomcat進行互動,請求資料庫訪問
  • nginx 有一個 master,有四個 woker,每個 woker 支援最大的連線數 1024,支援的 最大併發數是多少?
    • 普通的靜態資源訪問最大併發數是: worker_connections * worker_processes /2(每個worker的最大連線數 × worker個數,再除以訪問靜態資源的兩個連線數)
    • 而如果是 HTTP 作為反向代理來說,最大併發數量應該是:worker_connections * worker_processes / 4