1. 程式人生 > >Nginx負載均衡NFS配置

Nginx負載均衡NFS配置

Nginx配置

首先在兩臺伺服器上部署同一個專案,例如下:
測試網站節點1: http://192.168.168.61/nfstest/
測試網站節點2: http://192.168.64.145/nfstest/

在主站進行nginx配置

upstream nfstest {
    server 192.168.64.145:9575 weight=5;
    server 192.168.168.61:80 weight=5; 
    fair;                           
}

現在負載均衡初步完成了。upstream按照輪詢(預設)方式進行負載,每個請求按時間順序逐一分配到不同的後端伺服器,如果後端伺服器down掉,能自動剔除。雖然這種方式簡便、成本低廉。但缺點是:可靠性低和負載分配不均衡。適用於圖片伺服器叢集和純靜態頁面伺服器叢集。

upstream還有其它的分配策略,分別如下:

weight(權重)
指定輪詢機率,weight和訪問比率成正比,用於後端伺服器效能不均的情況。如下所示,10.0.0.88的訪問比率要比10.0.0.77的訪問比率高一倍。

upstream linuxidc{ 
      server 10.0.0.77 weight=5; 
      server 10.0.0.88 weight=10; 
}

ip_hash(訪問ip)
每個請求按訪問ip的hash結果分配,這樣每個訪客固定訪問一個後端伺服器,可以解決session的問題。

upstream favresin{ 
      ip_hash; 
      server 10.0.0.10:8080; 
      server 10.0.0.11:8080; 
}

fair(第三方)
按後端伺服器的響應時間來分配請求,響應時間短的優先分配。與weight分配策略類似。

 upstream favresin{      
      server 10.0.0.10:8080; 
      server 10.0.0.11:8080; 
      fair; 
}

url_hash(第三方)
按訪問url的hash結果來分配請求,使每個url定向到同一個後端伺服器,後端伺服器為快取時比較有效。
注意:在upstream中加入hash語句,server語句中不能寫入weight等其他的引數,hash_method是使用的hash演算法。

 upstream resinserver{ 
      server 10.0.0.10:7777; 
      server 10.0.0.11:8888; 
      hash $request_uri; 
      hash_method crc32; 
}

upstream還可以為每個裝置設定狀態值,這些狀態值的含義分別如下:
down 表示單前的server暫時不參與負載.
weight 預設為1.weight越大,負載的權重就越大。
max_fails :允許請求失敗的次數預設為1.當超過最大次數時,返回proxy_next_upstream 模組定義的錯誤.
fail_timeout : max_fails次失敗後,暫停的時間。
backup: 其它所有的非backup機器down或者忙的時候,請求backup機器。所以這臺機器壓力會最輕。

upstream bakend{ #定義負載均衡裝置的Ip及裝置狀態 
      ip_hash; 
      server 10.0.0.11:9090 down; 
      server 10.0.0.11:8080 weight=2; 
      server 10.0.0.11:6060; 
      server 10.0.0.11:7070 backup; 
}

NFS配置

環境:
兩臺伺服器之間能正常通訊
192.168.64.145 A伺服器(檔案實際儲存)
192.168.168.61 B伺服器

一、A伺服器配置

1、安裝NFS

使用rpm -qa | grep nfs 與 rpm -qa | grep rpcbind 可以檢視是否有安裝。
在CentOS內可以使用『yum install nfs-utils 』來安裝。

2、設定服務機上的共享目錄

  [[email protected] ~]# vi /etc/exports 
  /chroot/www/nfstest/WebContent/source 192.168.168.61(rw)
  #為192.168.168.61讀寫操作source目錄許可權
  /chroot/www/nfstest/WebContent/source *(rw,no_root_squash) 
  #任何人都可以應用source目錄

3、啟動NFS

設定文件後,開始啟動, NFS啟動之前需要先啟動rpcbind才行。

  #如果rpcbind本來就已經在執行了,那就不需要啟動啊!
  [[email protected] ~]# /etc/init.d/rpcbind start 
  #啟動nfs
  [[email protected] ~]# /etc/init.d/nfs start 
  #啟動nfslock
  [[email protected] ~]# /etc/init.d/nfslock start 
  [[email protected] ~]# chkconfig rpcbind on 
  [[email protected] ~]# chkconfig nfs on 
  [[email protected] ~]# chkconfig nfslock on

4、NFS 的連線觀察

[[email protected] ~]# showmount [-ae] [hostname|IP]
選項與引數:
-a :顯示目前主機與使用者端的NFS 連線分享的狀態;
-e :顯示某部主機的/etc/exports 所分享的目錄資料。

顯示出剛剛所設定好的相關exports分享目錄資訊

  [[email protected] ~]# showmount -e localhost
  Export list for localhost:
  /chroot/www/nfstest/source (everyone)
  /tmp                       (everyone)

二、B伺服器配置

1.啟動必備的服務

若沒有啟動才啟動,有啟動則保持原樣不動

[[email protected] ~]# /etc/init.d/rpcbind start 
[[email protected] ~]# /etc/init.d/nfslock start 

2.查詢A伺服器提供哪些資源供使用

[[email protected] ~]# showmount -e 192.168.64.145
Export list for 192.168.64.145:
/chroot/www/nfstest/source (everyone)<==這是等一下要掛載的目錄
/tmp                       (everyone)

3.建立掛載點

[[email protected] ~]# mkdir -p /chroot/www/nfstest/source 
[[email protected] ~]# mount -t nfs 192.168.64.145:/chroot/www/nfstest/source  /chroot/www/nfstest/source

4.解除安裝掛載點

[[email protected] ~]# umount /chroot/www/nfstest/source

推薦文件:
http://linux.vbird.org/linux_server/0330nfs.php#nfsserver_need

相關推薦

Nginx負載均衡NFS配置

Nginx配置 首先在兩臺伺服器上部署同一個專案,例如下: 測試網站節點1: http://192.168.168.61/nfstest/ 測試網站節點2: http://192.168.64.145/nfstest/ 在主站進行nginx配置 upstream nfstest { server 19

nginx負載均衡簡單配置

.org star gin def lis down pes timeout install nginx負載均衡簡單配置準備三臺虛擬機來做這個實驗:172.16.160.99 web服務器172.16.160.103 web服務器172.16.160

window下nginx負載均衡簡單配置-----權重的實現

post ~~ tar 執行 nginx服務器 負載均衡 臺電腦 nginx bsp 下面介紹一個在window下的nginx的負載均衡配置。 需要你在你的電腦上跑兩個tomcat。一個8080,一個9080。 需要一個nginx服務器。 需要修改本機的host

Linux學習總結(四十三)nginx 負載均衡 https 配置

ngnix 負載均衡 ip_hash https 1 nginx 負載均衡 當被代理的服務端為多臺服務器時,就存在一個分發的問題,那麽就涉及到一個負載均衡的概念。如何讓客戶端請求按照預定的設想均衡的分發到各個服務器上,就要使用各種均衡算法。下面介紹的ip哈希算法可以實現如下目的。當對後端的多臺

nginx負載均衡配置

公司最近做聊天類軟體,由於使用者量大,防止一臺崩潰了,就導致全盤崩潰,所以需要多臺業務伺服器共同執行,但是給前端只能一個url地址,這時候我們就可以用到nginx代理伺服器了。 1、安裝nginx(linux下的安裝) 我沒有伺服器所以這個是上網搜的,有問題的話,闊以一起

Nginx負載均衡配置、Rewrite、伺服器配置指令

Nginx伺服器配置指令:  Rewrite功能,代理功能 Rewrite功能 後端伺服器組的配置指令 upstream指令 upstream指令是設定後端伺服器組的主要指令 upstream name {...} 請求按照輪叫排程(Round-Robin,

linux 1.3 nginx 負載均衡配置檔案

今日內容 nginx 1.編譯安裝配置完成 /opt/nginx11/html/index.html 這是網頁的首頁檔案 nginx.conf主配置檔案學習 如下 worker_processes 4; nginx工作程序數,根據cpu的核數定義 events { worker_connection

nginx負載均衡配置PHP-FPM

PHP開發基本上都知道兩種執行環境,分別是LNMP和LAMP。區別主要在N和A上,當然從細節上來區分,兩個P也有不一樣的地方。不談之前的淺淡理解,最近一個專案上要配合進行PHP伺服器指向的切換。發現A伺服器上安裝了apache,B伺服器上安裝了nginx,每次請求B伺服器的n

nginx負載均衡配置

war eal ade remote dock lis upstream doc 配置 http {   upstream docker {       server 192.168.88.106:10001;       server 192.168.88.1

BasePath問題-nginx負載均衡配置

.... class ip地址 htm post 細致 rpo 均衡 css 在配置nginx+tomcat好後。將項目加入到webapps中。發現訪問主頁時,css與js訪問不到,導致主頁布局出錯。細致分析原因後發現css與js的地址是basePath得出的。而bas

Nginx負載均衡配置實例詳解

負載均衡 命令 成功 介紹 nginx 重啟nginx 不能 測試 forward [導讀] 負載均衡是我們大流量網站要做的一個東西,下面我來給大家介紹在Nginx服務器上進行負載均衡配置方法,希望對有需要的同學有所幫助哦。負載均衡先來簡單了解一下什麽是負載均衡,

12.17 Nginx負載均衡 12.18 ssl原理 12.19 生成ssl密鑰對12.20 Nginx配置ssl

12.17 nginx負載均衡 12.18 ssl原理 12.19 生成ssl密鑰對12.20 nginx配置ssl12.17 Nginx負載均衡12.18 ssl原理12.19 生成ssl密鑰對12.20 Nginx配置ssl擴展針對請求的uri來代理 http://ask.apelearn.com/que

Nginx負載均衡、ssl原理、生成ssl密鑰對、Nginx配置ssl

lnmp架構Nginx負載均衡當用戶訪問nginx定制好的域名時,nginx通過轉發到幾臺真實的站點,通過upstream實現[root@centos7 vhost]# vim /usr/local/nginx/conf/vhost/load.confupstream www.tt.com#自定義域名{#

linux的Nginx負載均衡、ssl原理、生成ssl密鑰對、Nginx配置ssl介紹

block server u tlsv1 host fda 彈出 配置ssl 重新編譯 openssl Nginx的負載均衡 1. 查找www.qq.com域名對應IP做測試 [root@gary-tao ~]# yum install -y bind-utils /

Nginx負載均衡、ssl原理、生產ssl密鑰對、Nginx配置ssl

基於 location 顯示 工作流程 流程 創建 docs 有效 match 12.17 Nginx負載均衡 Nginx負載均衡即為當代理服務器將自定義的域名解析到多個指定IP時,通過upstream來保證用戶可以通過代理服務器正常訪問各個IP。 編輯配置文件

LNMP(Nginx負載均衡,SSL原理,Nginx配置SSL,生產SSL密鑰對)

orm mage 解碼 web服務 bind 先來 mkdir padding ddr 一、Nginx負載均衡負載均衡:單從字面上的意思來理解就可以解釋N臺服務器平均分擔負載,不會因為某臺服務器負載高宕機而某臺服務器閑置的情況。那麽負載均衡的前提就是要有多臺服務器才能實現,

[轉載]nginx負載均衡+keepalived三主(多主)配置

rtu bucket 次數 with 信息 .gz plain int x86_64 nginx負載均衡+keepalived三主(多主)配置 1.實驗環境,實現目標三臺主機分別配置nginx負載均衡對後端多臺主機做轉發,同時配置keepalived實現HA,保證任意主機出

nginx前端負載均衡配置文件

nginx前端負載均衡主配置文件cat /usr/local/nginx/conf/nginx.conf user www www; worker_processes auto; error_log /home/wwwlogs/nginx_error.log crit; pid /us

mariadb集群與nginx負載均衡配置--centos7版本

red listen 1.5 ike log-bin ati 主機 方便 openssl 這裏配置得是單nginx主機。。先準備4臺主機,三臺mariadb集群,一臺nginx。 -----------------------------------------------

nginx負載均衡配置https

nginx iis1先購買https協議證書或者申請免費的證書我這裏是在騰訊雲上免費申請的如圖我這裏是nginx的負載均衡,所以選擇nginx的目錄,裏面有兩個文件,如圖把這兩個文件放到nginx的keys目錄下編輯配置nginx的配置文件server {listen 443;server_