容器化RDS|計算存儲分離 or 本地存儲?
隨著交流機會的增多(集中在金融行業,規模都在各自領域數一數二),發現大家對 Docker + Kubernetes 的接受程度超乎想象, 並極有興趣將這套架構應用到 RDS 領域。數據庫服務的需求可以簡化為:
實現數據零丟失的前提下,提供可接受的服務能力。
因此存儲架構的選型至關重要。到底是選擇計算存儲分離還是本地存儲?
本文就這個問題,從以下幾點展開:
-
回顧:計算存儲分離, 本地存儲優缺點
-
MySQL 基於本地存儲實現數據零丟失
-
性能對比
-
基於 Docker + Kubernetes 的實現
來分享個人理解。
回顧:計算存儲分離,本地存儲優缺點
還是從計算存儲分離說起。
計算存儲分離
先說優點:
-
架構清晰
-
計算資源 / 存儲資源獨立擴展
-
提升實例密度,優化硬件利用率
-
簡化實例切換流程:將有狀態的數據下沈到存儲層,Scheduler 調度時,無需感知計算節點的存儲介質,只需調度到滿足計算資源要求的 Node,數據庫實例啟動時,只需在分布式文件系統掛載 mapping volume 即可。可以顯著的提高數據庫實例的部署密度和計算資源利用率。
以 MySQL 為例
-
通用性更好,同時適用於 Oracle、MySQL,詳見:《容器化RDS——計算存儲分離架構下的"Split-Brain"》。
從部分用戶的上下文來看,存在如下客觀缺點:
-
引入分布式存儲,架構復雜度加大。一旦涉及到分布式存儲的問題,DBA 無法閉環解決。
-
分布式存儲選型:
選擇商用,有 Storage Verdor Lock In 風險。
選擇開源,大多數用戶(包括沃趣)都測試過 GlusterFS 和 Ceph,針對數據庫(Sensitive Lantency)場景,性能完全無法接受。
本地存儲
如果在意計算存儲分離架構中提到的缺點,本地存儲可以有效的打消類似顧慮,無需引入分布式存儲,避免Storage Verdor Lock In 風險,所有問題都由DBA 閉環解決,但是,需要依賴數據庫自有方案實現數據零丟失。
以 MySQL 為例
還會引入類似問題:
-
物理容量受限於單機容量;
-
調度更復雜,選定數據庫實例的存儲類型(比如 SSD)後,一旦該實例發生“failover”,只能調度到擁有 SSD 的物理節點,這導致調度器需要對物理節點“Physical Topology Aware”;
-
密度難提升,這是“Physical Topology Aware”的副作用;
-
因數據庫的不同方案差異性較大,通用性無法保證。
接下來,進入正題,看一下 MySQL 基於本地存儲如何實現數據庫零丟失。
MySQL 基於本地存儲數據零丟失
最常用的是基於 Replication 模型將數據復制到 MySQL Cluster 中所有成員。
MySQL Master-Slave Replication(類似 Oracle DataGuard)提供了基於 binlog 的數據庫層的復制模型,在高並發壓力下節點間同步數據速率最快,單位時間內的交易量受其他節點的影響極小,該架構可通過 vip 漂移的方式實現 “failover”。
MySQL Master-Slave Replication
但嚴格意義上來說,這是基於 binlog 的 Asynchronous Replication 模型,因此集群中所有成員存在數據不一致的可能,在“failover”時無法保證數據零丟失。
可見如果基於 Replication 模型,Synchronous Replication 是實現數據零丟失的前提。
傳統的 Synchronous Replication 一般會采用兩階段提交或分布式鎖,這會帶來如下幾個問題:
-
單位時間內事務能力(TPS)會跟集群成員數量成反比
-
增加集群成員會顯著且無法預期的增加事務響應時間
-
增加了集群成員數據復制的沖突和死鎖的可能性
針對以上問題 Galera Cluster 提出 Certification-based Replication 來解決傳統 Synchronous Replication 中遇到的問題,實現如下:
Deferred Update Replication 延遲更新復制
這個流程圖中,有幾個細節需要分享:
-
將基於 binlog 改為基於 write-set,write-set 中包含修改的數據,Global Transaction ID(後面簡稱 GTID)和 Primary Key。
GTID 類似 45eec521-2f34-11e0-0800-2a36050b826b:94530586304
94530586304 為 64-bit 有符號整型,用來表示事務在序列中的位置
-
將傳統的 Synchronous Replication 改為 Deferred Update Replication,並將整個過程大致分解成四個階段,本地階段、發送階段、驗證階段和應用階段,其中:
本地階段:樂觀執行,在事務 Commit 前,假設該 Transcation 在集群中復制時不會產生沖突。
發送階段:優化同步時間窗口,除去全局排序並獲取 GTID 為同步操作,沖突驗證和事務應用都為異步,極大的優化了復制效率。
驗證階段:只有收到該事務的所有前置事務後(不能有 “hole”),該事務和所有未執行的前置事務才能並發驗證,不然不能保證 Global Ordering,因此這裏需要犧牲效率,引入一定的串行化。
需要等待事務 3
於是就有了 Galera Cluster 在 MySQL 分支中的實現 MariaDB Galera Cluster(簡稱 MGC)和 Percona Xtradb Cluster(簡稱 PXC)。
為避免“split-brain”問題,需要至少三節點組成集群,對計算資源和存儲資源的容量要求至少增加2倍,會進一步降低資源的部署密度。
越來越多的用戶也期望通過該方案實現跨 IDC 多活,那麽需要在規劃階段想清楚:
IDC 和數據庫節點的拓撲架構,以保證在 1 個 IDC 出問題的情況,集群可以持續提供服務。
首先 IDC(物理或邏輯)最少需要3個,再看看數據庫節點數量分別為 3、4、5、6、7 的拓撲關系 :
-
3 數據庫節點:
-
4 數據庫節點:設置權重避免”split-brain” (? + ? ) + ? + ?
-
5 數據庫節點:
-
6 數據庫節點:
-
7 數據庫節點 : 可支持兩種拓撲關系
同時,還有 MySQL Group www.taohuayuan178.com Replication(簡稱 MGR)[1],類似 Galera Cluster:
-
基於Corosync實現(Totem協議),插件式安裝,MySQL 官方原生插件。
-
集群架構,支持多寫(建議單寫)
-
允許少數節點故障,同步延遲較小,保證強一致,數據零丟失
-
單位時間的交易量受 flow control 影響。
這裏還需要提一下 Vitess:
-
該項目由 Youtube 開源,從文檔看功能極為強大,高度產品化。
-
作為第二個存儲類項目(第一個是 Rook,有意思是存儲類而不是數據庫類)加入 CNCF,目前還處於孵化階段(incubation-level)。
-
筆者沒有使用經驗,也不知道國內有哪些用戶,不做評論。
關於 MGR 和 Vitess 網上已有大量介紹,這裏不再贅述。
性能對比
在數據零丟失的前提下,看看這幾種架構在性能上的對比:
-
MGR 5.7.17 / PXC 5.7.14-26.17
-
MGR 5.7.17 / PXC 5.7.17-29.20 www.wanmeiyuele.cn/ MariaDB 10.2.5 RC
-
本地存儲 / 計算存儲分離
性能對比 1:MGR 5.7.17 / PXC 5.7.14-26.17
測試背景描述:
-
MGR 5.7.17 對比 PXC 5.7.14-26.17(基於 Galera 3實現)
-
負載模型:OLTP Read/Write (RW)
-
durability:sync_binlog=1,innodb_flush_log_at_trx_commit=1
-
non-durability:sync_binlog=0,innodb_flush_log_at_trx_commit=2
測試數據 :
來自於 MySQL 官方[2]
測試結果:
在設置 durability 的情況下,MGR 最大吞吐約是PXC 5.7.14-26.17(基於 Galera 3 實現)的3倍,優勢明顯。
以上數據來自於MySQL 官方,公平起見,再來看看 Percona 在相同負載模型下的測試數據。
性能對比 2:MGR 5.7.17 /www.micheng178.com PXC 5.7.www.hbs90.cn/
測試背景描述:
-
增加了 MariaDB 參與對比
-
PXC 升級到 5.7.17-29.20,該版本改進了MySQL write-set 復制層性能[3]。
-
負載模型:依然使用 OLTP www.365soke.cn Read/Write (RW)
-
durability:sync_binlog=1
-
non-durability:sync_binlog=0
測試數據:
設置 durability,數據來自於 Percona[3]
設置 non-durability,數據來自於 Percona[3]
測試結果:
在負載模型相同的情況下(durability 和 non-durability)PXC 5.7.17-29.20 性能與 MGR 5.7.17 不分伯仲。如果使用 PXC,推薦使用 5.7.17-29.20 或以上版本。
性能對比3:本地存儲 / 計算存儲分離
為了對比本地存儲和計算存儲分離,專門使用 MGR + 本地存儲架構和 基於分布式存儲的計算存儲分離架構做性能對比。
測試結果:
在負載模型相同的情況下,前者比後者 OLTP 下降32.12%,Select 下降5.44%,Update 下降 24.18%,Insert 下降 58.18%,Delete 下降 11.44%。
詳細內容可留意 @波多野 同學 和 @韓傑 同學的測試報告,這裏不再贅述。
基於 Docker + Kubernetes 的實現
Docker + Kubernetes + MGR / Galera Cluster
在 GitHub 上,可以看到基於 Docker + Kuberetes + PXC 的 demo[4]。需要說明的是,這僅僅是個玩具,離部署到生產環境還有極大差距。
我們已有計劃實現滿足生產環境的:
-
Docker + Kubernetes + PXC
-
Docker + Kubernetes + MGC
-
Docker + Kubernetes + MGR
並集成到 QFusion 來支持計算存儲分離架構和本地存儲架構混合部署,架構示意圖如下:
目前原型驗證階段已通過,預計2018年Q2發布。
Docker + Kubernetes + Vitess
在 GitHub 上,同樣可以看到基於 Docker + Kubernetes 的 demo[5],有興趣的同學可以玩一下。
性能只是選型需要考量的一部分,要使用到生產環境或者產品化,實際要考量的因素更多:
-
運維:部署、備份
-
彈性:計算存儲擴容,集群擴容
-
高可用:比如 “failover” 的細微差別對業務的影響
-
容錯:比如網絡對集群的影響,尤其是在網絡抖動或有明顯延時的情況下
-
社區活躍度
-
……
以現有軟硬件的開放程度,各種架構或者產品狹義上的“黑科技”並不多,常常看到的:『xxx 比 xxx 快 xxx 倍』嚴格來說應該是『xxx 比 xxx 在特定場景 xxx 下快 xxx 倍』。並不存在“一槍斃命”的“Silver Bullet”,只是 Docker + Kubernetes 為混合部署帶來可能。哪種更受青睞,拭目以待,用戶會是最好的老師。
《人月神話》中提到“No Silver Bullet”,原意是用來論述軟件工程領域的生產力問題。
由於軟件的復雜性本質,使得真正的銀彈並不存在,沒有任何一項技術或方法可使軟件工程的生產力在十年內提高十倍。
相關鏈接
-
https://dev.mysql.com/doc/refman/5.7/en/group-replication-background.html
-
http://mysqlhighavailability.com/performance-evaluation-mysql-5-7-group-replication/
-
https://www.percona.com/blog/2017/04/19/performance-improvements-percona-xtradb-cluster-5-7-17/
-
https://github.com/kubernetes/kubernetes/tree/master/examples/storage/mysql-galera
-
https://github.com/kubernetes/kubernetes/tree/master/examples/storage/vitess
容器化RDS|計算存儲分離 or 本地存儲?