1. 程式人生 > >I/O虛擬化及融合I/O基礎入門

I/O虛擬化及融合I/O基礎入門

什麼是I/O虛擬化?

  和所有形式的虛擬化技術一樣,I/O虛擬化(簡稱“IOV”)支援企業通過虛擬化技術建立虛擬例項來完成對物理資源的整合。在這裡I/O(輸入/輸出)資源被虛擬化並且在虛擬及物理伺服器和儲存元件之間共享。I/O包含了所有支撐在儲存、資料中心伺服器以及網路其他部分(網絡卡,HBA卡及cpu)間進行高速資料傳輸的元件。I/o虛擬化可以使企業通過按需分配虛擬化資源來提高I/O使用率,通過使用較少的物理元件來節約空間及能源。

  為什麼虛擬化I/O ?

  在物理環境中,每臺伺服器都需要有自己完整的一套網絡卡、光纖卡和CPU來進行連線,而在虛擬化環境中,這種需求變得更加複雜,因為每臺虛擬機器都需要共享寄存主機的頻寬及I/O資源,照此情況,虛擬機器之間會競爭I/O資源,造成I/O瓶頸。管理員可以動態分配虛擬化I/O的資源池,來滿足每臺虛擬伺服器的需求,並使得物理伺服器的物理I/O得以物盡其用。在物理伺服器環境中,即使是在虛擬伺服器正需要使用I/O時,I/O的利用率也可能會低至5%或6%。而使用I/O虛擬化技術,則可以將這一利用率提高至50%甚至80%。

什麼是融合I/O?

  融合I/O裝置和軟體是I/O虛擬化的基本建築模組。由於資料和應用程式都在儲存網路,資料中心伺服器以及區域網之間移動,所以企業可以利用這種技術來統一管理光纖上流動的各種型別的流量。

  許多網路管理人員都認為融合I/O就是光纖乙太網(FCoE)——或封裝光纖通道(FC)流量的能力,這樣可便於在乙太網骨幹網上執行。雖然現在已經有一批供應商,如Cisco、Brocade等,都發布了FCoE-ready元件,但融合I/O包含了幾種資料和儲存傳輸組合,例如乙太網上的Infiniband,或者反之。

  一般情況下,虛擬化I/O和融合I/O是通過安裝在刀鋒伺服器、虛擬I/O閘道器或交換機上整合的網路介面卡(CNAs)池,或共享的虛擬NIC池來實現的。CAN可以識別並處理不同種類的流量,並將它們匯聚到一個網路或單獨的骨幹網上。這些閘道器通常都是擴充套件的 PCI Express (PCIe)卡池的形式。

  PCI-SIG已經制定了規範,以便在虛擬I/O環境中使用PCIe裝置功能。單根I/O虛擬化(SR-IOV)是一個PCI-SIG規範,它使得一個PCIe卡顯示為多個物理裝置來滿足一個作業系統的服務需求,而多根I/O虛擬化(MR-IOV)規範一次只支援一個PCIe裝置顯示為多個服務多系統。

  在FCoE-ready元件中,Cisco和Brocade都推出了架頂式交換機——Nexus 5000和Brocade 8000——其埠相容乙太網和光纖流量。這些交換機通過乙太網以及光纖通道上行鏈路連線資料中心伺服器到區域網核心以及SAN。Cisco,HP以及IBM都已經在他們的刀鋒伺服器機箱產品中集成了I/O虛擬化功能模組,使得管理員可以按需將I/O資源分配到刀鋒伺服器,並封裝FC流量到乙太網。

  其他供應商,諸如IBM,HP,已經開發出允許一個物理NIC以多個虛擬網絡卡形式出現的軟體。這類軟體允許管理員動態地建立LAN和SAN地址池,並且上游交換機視這些上行鏈路為聚合的NIC 。

  並不是每個公司都做好了投資昂貴的刀鋒伺服器交換組合,或來自大廠商的複雜軟體,來開啟這條漫長的網路融合之路。使用者常常會把目光投向諸如Xsigo,Aprius,Virtensys,NextIO和 Mellanox這樣的第三方軟體供應商,這些供應商會將I/O虛擬化和融合I/O裝置或軟體新增到已在使用中的伺服器上。

I/O虛擬化裝置:PCIe匯流排擴充套件器及軟體方法

  PCIe匯流排擴充套件器,有時也被認為是交換PCIe——擴充套件PCI介面卡功能至所謂的卡籠。這個籠或閘道器包含了一組能夠支援乙太網,FC,InfiniBand,SAS/SATA以及iSCSI的I/O卡。一些伺服器和SAN元件能夠與動態建立智慧(dynamic provisioning intelligence)分享這個籠。

  不同於使用擴充套件器連線到閘道器,Xsigo Systems提出了一種軟硬體組合的方法,它使用現有的伺服器上的乙太網介面卡連線到閘道器或I/O介面卡。Xsigo I/O Director的目標是降低在實施融合I/O和I/O虛擬化過程中的複雜性。這種方法可能比PCIe匯流排擴充套件器的方法要昂貴些。

  並非所有虛擬I/O裝置供應商都以全乙太網化為目標

  Mellanox BridgeX就帶來了在InfiniBand上的融合I/O產品。Mellanox使用介面卡將Ethernet 或Fibre Channel流量封裝到Infiniband上。同時,Mellanox技術也能夠封裝Infiniband流量到乙太網上。Mellanox BridgeX BX5020支援融合乙太網標準上的遠端直接記憶體訪問 (RDMA)技術可以使Infiniband在乙太網骨幹網上執行。

為融合資料中心網路增強乙太網

  在供應商們整合乙太網架構上的資料和儲存流量之前,他們首先必須要開發出乙太網無損技術。在以往的情況中,資料流可以容忍丟包現象,而儲存流量則不可以,丟包會損壞儲存陣列上的資料。乙太網行業正在尋求解決這一問題的增強融合乙太網(CEE)和資料中心橋接 (DCB)技術,IEEE和IETF在分別進行無損乙太網標準的制定。目標是對現有乙太網增加擴充套件以確保可靠性,而不依賴過於複雜且會造成自身延遲的TCP。CEE和DCB會在四個方面增強乙太網效能:SAN及LAN流量的優化與分化,SAN流量的無損傳輸,資料傳輸最短路徑,以及更嚴格的配置管理。

  融合資料中心網路上的Trill或802.1aq

  當企業向融合資料中心網路移動時,原有的生成樹協議(STP)將會成為一種阻礙。由於二層乙太網的廣播技術,幀會被自然地傳送到每個可用的鏈路上。在廣播風暴中,這個廣播特性可能會導致一個裝置到另一個裝置的多路連線或死迴圈、網路過載。雖然生成樹通過允許網路中一個點到另一個點只有一條路徑,其他路徑都關閉的方法消除了環路問題,但是這在虛擬資料中心網路中卻是無效的。

  關於這個問題的解決辦法,目前有兩個提議:多連結透明互聯(TRILL),及802.1aq或者最短路徑橋接。TRILL和802.1aq都已經接近標準化了,它們所使用的技術是RBridge(Routing Bridges),用IS-IS(Intermediate System to Intermediate System)路由協議來找可能的最短路徑。TRILL很有可能會統治橋接協議。