1. 程式人生 > 實用技巧 >VMware vSphere 5.1 群集深入解析(二十七)- 群集架構的擴充套件

VMware vSphere 5.1 群集深入解析(二十七)- 群集架構的擴充套件

VMwarevSphere

5.1

ClusteringDeepdive

HA.DRS.StorageDRS.StretchedClusters

DuncanEpping&FrankDenneman

TranslateByTim2009/翻譯:Tim2009

目錄

版權

關於作者

知識點

前言

第一部分vSphere高可用性

第一章介紹vSphere高可用性

第二章高可用元件

第三章基本概念

第四章重新啟動虛擬機器

第五章增加高可用靈活性(網路冗餘)

第六章訪問控制

第七章虛擬機器和應用監控

第八章整合

第九章彙總

第二部分vSphereDRS(分散式資源排程)

第一章vSphereDRS介紹

第二章vMotion和EVC

第三章DRS動態配額

第四章資源池與控制

第五章DRS計算推薦

第六章DRS推薦嚮導

第七章DPM介紹

第八章DPM計算推薦

第九章DPM推薦嚮導

第十章彙總

第三部分vSphere儲存DRS

第一章vSphere儲存DRS介紹

第二章儲存DRS演算法

第三章儲存I/O控制(SIOC)

第四章資料儲存配置

第五章資料儲存架構與設計

第六章對儲存vMotion的影響

第七章關聯性

第八章資料儲存維護模式

第九章總結匯總

第四部分群集架構的擴充套件

第一章群集架構的擴充套件

第二章vSphere配置

第三章故障排錯

第四章總結匯總

第五章附錄

(端午節回了趟武漢,現在繼續更新,還請見諒)

第四部分群集架構的擴充套件

第一章群集架構的擴充套件

在這部分我們將繼續討論特定的基礎架構、怎樣利用HA,DRS和儲存DRS以及怎樣部署增加可用性。無論是你的工作量還是資源提供給你的工作量,我們將通過一些設計建議和決策方法來進行指導。當然,為了在實施的細節上做出合適的決定,完全瞭解你的環境是必要的。無論如何,我們希望這個部分能提供一個恰當的方式理解如何將某些功能放到一起,如何在你的環境接收到需求的時候,建立理想的架構。

場景

我們選擇是場景是擴充套件群集,也會提到VmwarevSphereMetroStorageCluster解決方案。我們選擇指導的場景來允許我們解釋多個設計和架構考慮。儘管場景已經測試過,在我們的實驗環境中也有效,每個環境是獨一無二的,我們的建議基於我們的經驗和你的情況可能不同。

一個VMwarevSphereMetroStorageCluster(vMSC)配置是VmwarevSphere5認證的解決方案,基於群集結合儲存陣列同步複製。這個解決方案通常部署在資料中心距離上有限制的環境,往往大都市或者校園環境。

擴充套件群集模式主要的優勢是使資料中心充分活躍和工作負載平衡,因為站點之間虛擬機器的遷移和儲存vMotion的能力,許多客戶發現了其吸引力,開啟on-demand和non-intrusive來跨站點移動工作負載,群集的擴充套件能力提供主動負載平衡自由,這應該是主要的設計和實施目標。

擴充套件群集解決方案提供的好處:

  • 工作負載移動性

  • 跨站點自動負載平衡

  • 增強避免停機時間

  • 避免災難

技術需求和約束

因為虛擬機器線上遷移的技術約束,有一些指定的需求必須在擴充套件群集實施時需要考慮,這些需求在Vmware硬體相容嚮導中儲存部分的清單中,包括如下:

  • 儲存連線使用光纖通道,ISCSI,SVD(儲存虛擬化裝置)和支援FCOE

  • 儲存連線使用NAS(NFS協議)在寫入的時候不支援vMSC配置(2012年8月)

  • 在站點和ESXi管理網路之間支援的最大網路延遲為10ms往返時間(RoundTripTime(RTT))

  • 注意vMotion僅僅在企業加強版的license下才支援的10ms延遲(MetrovMotion)

  • 為了同步儲存重複連結支援最大的延遲是5ms(RoundTripTime(RTT)),通常你的儲存廠商會提供它們允許的最大的RTT

  • ESXi的vMotion網路至少需要622Mbps的冗餘網路鏈路

儲存的需求比儲存同步複製解決方案要複雜一些,一個vSphereMetroStorageCluster請求會由單個儲存子系統擴充套件到站點,在這個設計中,提供的資料儲存必須可以訪問(能讀能寫),並同時來自於兩個站點。更進一步,當問題出現,ESXi主機必須能繼續從任一站點訪問資料儲存,不影響正在進行的儲存操作。

這排除了傳統的同步複製解決方案,當他們在活動的(主)LUN之間建立主/備關係,資料被訪問,備LUN正在收到複製操作,在這些解決方案中,為了訪問備LUN,重複必須停止(或者撤銷),LUN可見主機,現在升級了的備LUN有了完全不同的LUNID,本質上是一個新的可用副本,這種型別的解決方案適用於適用於傳統的災難恢復。預計虛擬機器需要在第二站點上啟動,vMSC需要同時配置第二站點,vMSC需要同時配置不影響訪問,所以站點之間還是允許執行著的虛擬機器進行遷移;正常的vMotion不會遷移虛擬機器的磁碟檔案。

vMSC的儲存子系統必須在兩個站點上同時讀寫,所有磁碟寫入站點同步來確保資料一致性。寫無論本地從哪個位置讀取,儲存架構在群集站點間呼叫需要大量的頻寬和非常低的延遲,增加距離和延遲將引起磁碟寫入延遲,使得效能大打折扣,將不允許在群集站點的不同地點之間成功執行vMotion。

統一和非統一

vMSC解決方案在不同區域目錄中分類,這些分類基於不同基礎的主機訪問儲存。理解不同型別的擴充套件儲存解決方法非常重要,它會影響到你的設計,有個主要的目錄在VMware硬體相容性列表中有描述:

  • 統一主機訪問配置–兩個站點的ESXi主機要連線全部站點儲存群集上的儲存節點來訪問,提交ESXi主機的路徑是擴充套件訪問距離

  • 不統一的主機訪問配置–每個站點的ESXi主機只連線同一站點的儲存節點,提交ESXi主機的路徑的儲存節點限制在本地站點。

讓我們從架構和實施角度描述更深一些來確保它們足夠清晰。

統一,資料中心-A和資料中心-B的主機既能訪問資料中心A儲存系統又能訪問資料中心B儲存系統。實際上,儲存區域網路在站點和所有主機之間被擴充套件從而能訪問所有的LUN,在這些配置中,讀寫訪問LUN發生在兩個陣列之一上,同步映象被維護隱藏,在第二陣列處於只讀狀態。例如,如果LUN包含的資料儲存在資料中心-A的陣列上可讀寫,所有的ESXi主機將通過資料中心A的陣列進入資料儲存,為了資料中心A的ESXi主機,會有一個本地訪問,資料中心BESXi主機上的執行著虛擬機器的位於資料儲存上,為了防止停機或者LUN的操作控制轉換到資料中心-B上,所有的ESXi主機將繼續檢視在場的相同的LUN,除了已經訪問了資料中心-B的ESXi主機。

圖160:統一儲存架構

p_w_picpath

正如你所看到的,理想的情況是一個虛擬機器同一個資料中心通過陣列控制(讀寫)訪問的資料儲存,這最大限度的減少了資料中心之間的流量,避免了讀取整個互連效能的影響。

虛擬機器的站點關聯的概念是由資料儲存的讀寫副本支配,“站點關聯”一些時候也稱之為“sitebias”或者“LUNlocality”,意味著當資料中心A上的虛擬機器有站點關聯,它讀寫資料中心A位於資料儲存上的副本,這已經在DRS章節中解釋得較詳細。

不統一:資料中心A上的主機只能訪問資料中心本地的陣列,陣列(相反的資料中心的同級陣列)負責提供全部的資料儲存大家訪問,在大多數場景中虛擬機器用到了這個概念,它允許每個資料中心上的ESXi主機讀寫同一個資料儲存/LUN。

很好理解,即使兩個虛擬機器在同一個資料儲存,但位於不同的資料中心,它們會寫到本地,在此配置的一個關鍵點是,定義每個LUN/資料儲存的站點關聯(SiteAffinity),還有時候需要涉及到“Sitebias”或者“LUNlocality”。換句話說,如果在站點和站點上的儲存系統之間的鏈路上發生一些事情,站點為了個給資料儲存將只有讀寫方式的能夠訪問,這當然是為了在失敗的場景下阻止資料損壞。

圖161:不統一的儲存架構

p_w_picpath

作為統一的解決方案是當今最常用的部署,我們的測試情況下將使用統一儲存,應當指出,許多的設計考慮也適用於非統一配置,若不是這種場景的情況,我們會進行收集。

場景架構

在這部分我們將為場景描述架構配置,我們還將討論一些基本的配置和多樣的vSphere功能,為了更深的解釋各自的功能,涉及到此書HA和DRS部分,我們將基於VMware最佳實踐和提供的操作手冊來提出針對建議,在我們失敗的場景中將解釋怎樣在實踐中阻止和限制停機時間。

架構

一個由單個vSphere5.1群集和4個ESXi主機組成的架構場景,vSpherevCenter伺服器管理這些主機,它決定使用vSphere5.1來測試提高改進vSphere5.0U1中介紹的“永久裝置丟失”(PDL)場景。介紹的這些加強的功能主要用於擴充套件群集環境。我們將在此章節討論vSphereHA部分更詳細的內容。值得注意的是在vSphere5.1中PDL行為方面沒有任何改變。

為了我們測試目的,我們模擬有兩個站點的使用者環境,第一個站點叫Frimley,第二個站點叫Bluefin。Frimley資料中心和Bluefin資料中心之間是擴充套件2層網路,學校群集之間的距離是最小的距離,vCenterServer和虛擬機器執行在同一個群集上。

每個站點有兩個ESXi主機,Bluefin資料中心的vCenterServer配置了vSphereDRS管理主機,在擴充套件群集環境中只有一個vCenterServer例項是使用的,不同於傳統的VMwareSiteRecoveryManager配置需要兩個vCenterServer。在第15章討論了配置VM-Host關聯規則,在我們的場景中使用ISCSI為主要協議。

在vSphere5.1群集通過統一裝置接入模式的光纖配置連線上NetAppMetroCluster。此配置在NetApp的技術白皮書“TR-3548”中有深入描述。這意味著群集裡每個主機連線了兩個儲存節點。每個節點連線到兩個光纖交換機,第二區域的節點還連線到兩個類似的交換機,對於任何給定的LUN,兩個儲存節點中的任何一個呈現的LUN是通過ISCSI讀寫。

與此相反的儲存節點保持著複製,只讀副本有效的隱藏起來,直到ESXi主機需要。

當使用NetAppMetroCluster,一個ISCSI連線繫結一個指定的虛擬IP地址,ESXi主機上的這個虛擬IP地址用來連線儲存控制器。在失敗的場景中,IP-Address轉換到相反的儲存控制器,允許無縫訪問目標儲存的IP地址,而不需要重新配置。

總計建立了8個LUN:4個通過虛擬ISCSIIP地址訪問Frimley資料中心,另外4個通過虛擬ISCSIIP地址訪問Bluefin資料中心。

圖162:基礎結構

p_w_picpath

表27:基礎架構

p_w_picpath

轉載於:https://blog.51cto.com/virtualbox/1223280