1. 程式人生 > >容器化RDS|計算存儲分離 or 本地存儲?

容器化RDS|計算存儲分離 or 本地存儲?

left 解決 cluster war 情況下 上下文 其中 git http

隨著交流機會的增多(集中在金融行業,規模都在各自領域數一數二),發現大家對 Docker + Kubernetes 的接受程度超乎想象, 並極有興趣將這套架構應用到 RDS 領域。數據庫服務的需求可以簡化為:
實現數據零丟失的前提下,提供可接受的服務能力。
因此存儲架構的選型至關重要。到底是選擇計算存儲分離還是本地存儲?
本文就這個問題,從以下幾點展開:

  • 回顧:計算存儲分離, 本地存儲優缺點

  • MySQL 基於本地存儲實現數據零丟失

  • 性能對比

  • 基於 Docker + Kubernetes 的實現


來分享個人理解。

回顧:計算存儲分離,本地存儲優缺點

技術分享圖片

還是從計算存儲分離說起。

計算存儲分離

技術分享圖片


先說優點:

  • 架構清晰

  • 計算資源 / 存儲資源獨立擴展

  • 提升實例密度,優化硬件利用率

  • 簡化實例切換流程:將有狀態的數據下沈到存儲層,Scheduler 調度時,無需感知計算節點的存儲介質,只需調度到滿足計算資源要求的 Node,數據庫實例啟動時,只需在分布式文件系統掛載 mapping volume 即可。可以顯著的提高數據庫實例的部署密度和計算資源利用率。

    技術分享圖片

    以 MySQL 為例

  • 通用性更好,同時適用於 Oracle、MySQL,詳見:《容器化RDS——計算存儲分離架構下的"Split-Brain"》。


從部分用戶的上下文來看,存在如下客觀缺點:

  • 引入分布式存儲,架構復雜度加大。一旦涉及到分布式存儲的問題,DBA 無法閉環解決。

  • 分布式存儲選型:

    選擇商用,有 Storage Verdor Lock In 風險。

    選擇開源,大多數用戶(包括沃趣)都測試過 GlusterFS 和 Ceph,針對數據庫(Sensitive Lantency)場景,性能完全無法接受。

本地存儲


如果在意計算存儲分離架構中提到的缺點,本地存儲可以有效的打消類似顧慮,無需引入分布式存儲,避免Storage Verdor Lock In 風險,所有問題都由DBA 閉環解決,但是,需要依賴數據庫自有方案實現數據零丟失。

技術分享圖片

以 MySQL 為例
還會引入類似問題:

  • 物理容量受限於單機容量;

  • 調度更復雜,選定數據庫實例的存儲類型(比如 SSD)後,一旦該實例發生“failover”,只能調度到擁有 SSD 的物理節點,這導致調度器需要對物理節點“Physical Topology Aware”;

    技術分享圖片

  • 密度難提升,這是“Physical Topology Aware”的副作用;

  • 因數據庫的不同方案差異性較大,通用性無法保證。


接下來,進入正題,看一下 MySQL 基於本地存儲如何實現數據庫零丟失。

MySQL 基於本地存儲數據零丟失

技術分享圖片

最常用的是基於 Replication 模型將數據復制到 MySQL Cluster 中所有成員。
MySQL Master-Slave Replication(類似 Oracle DataGuard)提供了基於 binlog 的數據庫層的復制模型,在高並發壓力下節點間同步數據速率最快,單位時間內的交易量受其他節點的影響極小,該架構可通過 vip 漂移的方式實現 “failover”。

技術分享圖片

MySQL Master-Slave Replication
但嚴格意義上來說,這是基於 binlog 的 Asynchronous Replication 模型,因此集群中所有成員存在數據不一致的可能,在“failover”時無法保證數據零丟失。
可見如果基於 Replication 模型,Synchronous Replication 是實現數據零丟失的前提。
傳統的 Synchronous Replication 一般會采用兩階段提交或分布式鎖,這會帶來如下幾個問題:

  • 單位時間內事務能力(TPS)會跟集群成員數量成反比

  • 增加集群成員會顯著且無法預期的增加事務響應時間

  • 增加了集群成員數據復制的沖突和死鎖的可能性


針對以上問題 Galera Cluster 提出 Certification-based Replication 來解決傳統 Synchronous Replication 中遇到的問題,實現如下:

技術分享圖片

Deferred Update Replication 延遲更新復制
這個流程圖中,有幾個細節需要分享:

  • 將基於 binlog 改為基於 write-set,write-set 中包含修改的數據,Global Transaction ID(後面簡稱 GTID)和 Primary Key。

    GTID 類似 45eec521-2f34-11e0-0800-2a36050b826b:94530586304

    94530586304 為 64-bit 有符號整型,用來表示事務在序列中的位置

  • 將傳統的 Synchronous Replication 改為 Deferred Update Replication,並將整個過程大致分解成四個階段,本地階段、發送階段、驗證階段和應用階段,其中:

    本地階段:樂觀執行,在事務 Commit 前,假設該 Transcation 在集群中復制時不會產生沖突。

    發送階段:優化同步時間窗口,除去全局排序並獲取 GTID 為同步操作,沖突驗證和事務應用都為異步,極大的優化了復制效率。

    驗證階段:只有收到該事務的所有前置事務後(不能有 “hole”),該事務和所有未執行的前置事務才能並發驗證,不然不能保證 Global Ordering,因此這裏需要犧牲效率,引入一定的串行化。

    技術分享圖片

    需要等待事務 3


於是就有了 Galera Cluster 在 MySQL 分支中的實現 MariaDB Galera Cluster(簡稱 MGC)和 Percona Xtradb Cluster(簡稱 PXC)。

技術分享圖片


為避免“split-brain”問題,需要至少三節點組成集群,對計算資源和存儲資源的容量要求至少增加2倍,會進一步降低資源的部署密度。
越來越多的用戶也期望通過該方案實現跨 IDC 多活,那麽需要在規劃階段想清楚:
IDC 和數據庫節點的拓撲架構,以保證在 1 個 IDC 出問題的情況,集群可以持續提供服務。
首先 IDC(物理或邏輯)最少需要3個,再看看數據庫節點數量分別為 3、4、5、6、7 的拓撲關系 :

  • 3 數據庫節點:

    技術分享圖片

  • 4 數據庫節點:設置權重避免”split-brain” (? + ? ) + ? + ?

    技術分享圖片

  • 5 數據庫節點:

    技術分享圖片

  • 6 數據庫節點:

    技術分享圖片

  • 7 數據庫節點 : 可支持兩種拓撲關系

    技術分享圖片


同時,還有 MySQL Group www.taohuayuan178.com Replication(簡稱 MGR)[1],類似 Galera Cluster:

  • 基於Corosync實現(Totem協議),插件式安裝,MySQL 官方原生插件。

  • 集群架構,支持多寫(建議單寫)

  • 允許少數節點故障,同步延遲較小,保證強一致,數據零丟失

  • 單位時間的交易量受 flow control 影響。


這裏還需要提一下 Vitess:

  • 該項目由 Youtube 開源,從文檔看功能極為強大,高度產品化。

  • 作為第二個存儲類項目(第一個是 Rook,有意思是存儲類而不是數據庫類)加入 CNCF,目前還處於孵化階段(incubation-level)。

  • 筆者沒有使用經驗,也不知道國內有哪些用戶,不做評論。


關於 MGR 和 Vitess 網上已有大量介紹,這裏不再贅述。

性能對比

技術分享圖片

在數據零丟失的前提下,看看這幾種架構在性能上的對比:

  • MGR 5.7.17 / PXC 5.7.14-26.17

  • MGR 5.7.17 / PXC 5.7.17-29.20 www.wanmeiyuele.cn/ MariaDB 10.2.5 RC

  • 本地存儲 / 計算存儲分離

性能對比 1:MGR 5.7.17 / PXC 5.7.14-26.17


測試背景描述:

  • MGR 5.7.17 對比 PXC 5.7.14-26.17(基於 Galera 3實現)

  • 負載模型:OLTP Read/Write (RW)

  • durability:sync_binlog=1,innodb_flush_log_at_trx_commit=1

  • non-durability:sync_binlog=0,innodb_flush_log_at_trx_commit=2


測試數據 :

技術分享圖片

來自於 MySQL 官方[2]
測試結果:
在設置 durability 的情況下,MGR 最大吞吐約是PXC 5.7.14-26.17(基於 Galera 3 實現)的3倍,優勢明顯。
以上數據來自於MySQL 官方,公平起見,再來看看 Percona 在相同負載模型下的測試數據。

性能對比 2:MGR 5.7.17 /www.micheng178.com PXC 5.7.www.hbs90.cn/

測試背景描述:

  • 增加了 MariaDB 參與對比

  • PXC 升級到 5.7.17-29.20,該版本改進了MySQL write-set 復制層性能[3]。

  • 負載模型:依然使用 OLTP www.365soke.cn Read/Write (RW)

  • durability:sync_binlog=1

  • non-durability:sync_binlog=0


測試數據:

技術分享圖片

設置 durability,數據來自於 Percona[3]

技術分享圖片

設置 non-durability,數據來自於 Percona[3]
測試結果:
在負載模型相同的情況下(durability 和 non-durability)PXC 5.7.17-29.20 性能與 MGR 5.7.17 不分伯仲。如果使用 PXC,推薦使用 5.7.17-29.20 或以上版本。

性能對比3:本地存儲 / 計算存儲分離


為了對比本地存儲和計算存儲分離,專門使用 MGR + 本地存儲架構和 基於分布式存儲的計算存儲分離架構做性能對比。
測試結果:
在負載模型相同的情況下,前者比後者 OLTP 下降32.12%,Select 下降5.44%,Update 下降 24.18%,Insert 下降 58.18%,Delete 下降 11.44%。
詳細內容可留意 @波多野 同學 和 @韓傑 同學的測試報告,這裏不再贅述。

基於 Docker + Kubernetes 的實現

技術分享圖片

Docker + Kubernetes + MGR / Galera Cluster


在 GitHub 上,可以看到基於 Docker + Kuberetes + PXC 的 demo[4]。需要說明的是,這僅僅是個玩具,離部署到生產環境還有極大差距。
我們已有計劃實現滿足生產環境的:

  • Docker + Kubernetes + PXC

  • Docker + Kubernetes + MGC

  • Docker + Kubernetes + MGR


並集成到 QFusion 來支持計算存儲分離架構和本地存儲架構混合部署,架構示意圖如下:

技術分享圖片


目前原型驗證階段已通過,預計2018年Q2發布。

Docker + Kubernetes + Vitess


在 GitHub 上,同樣可以看到基於 Docker + Kubernetes 的 demo[5],有興趣的同學可以玩一下。
性能只是選型需要考量的一部分,要使用到生產環境或者產品化,實際要考量的因素更多:

  • 運維:部署、備份

  • 彈性:計算存儲擴容,集群擴容

  • 高可用:比如 “failover” 的細微差別對業務的影響

  • 容錯:比如網絡對集群的影響,尤其是在網絡抖動或有明顯延時的情況下

  • 社區活躍度

  • ……


以現有軟硬件的開放程度,各種架構或者產品狹義上的“黑科技”並不多,常常看到的:『xxx 比 xxx 快 xxx 倍』嚴格來說應該是『xxx 比 xxx 在特定場景 xxx 下快 xxx 倍』。並不存在“一槍斃命”的“Silver Bullet”,只是 Docker + Kubernetes 為混合部署帶來可能。哪種更受青睞,拭目以待,用戶會是最好的老師。

《人月神話》中提到“No Silver Bullet”,原意是用來論述軟件工程領域的生產力問題。
由於軟件的復雜性本質,使得真正的銀彈並不存在,沒有任何一項技術或方法可使軟件工程的生產力在十年內提高十倍。

相關鏈接

    1. https://dev.mysql.com/doc/refman/5.7/en/group-replication-background.html

    2. http://mysqlhighavailability.com/performance-evaluation-mysql-5-7-group-replication/

    3. https://www.percona.com/blog/2017/04/19/performance-improvements-percona-xtradb-cluster-5-7-17/

    4. https://github.com/kubernetes/kubernetes/tree/master/examples/storage/mysql-galera

    5. https://github.com/kubernetes/kubernetes/tree/master/examples/storage/vitess

容器化RDS|計算存儲分離 or 本地存儲?