Hadoop NameNode HA模式的搭建以及原理
搭建HA(高可用)模式的集群參見(http://blog.cheyo.net/92.html)
轉自:http://www.it165.net/admin/html/201407/3465.html
社區hadoop2.2.0 release版本開始支持NameNode的HA,本文將詳細描述NameNode HA內部的設計與實現。
為什麽要Namenode HA?
1. NameNode High Availability即高可用。
2. NameNode 很重要,掛掉會導致存儲停止服務,無法進行數據的讀寫,基於此NameNode的計算(MR,Hive等)也無法完成。
Namenode HA 如何實現,關鍵技術難題是什麽?
1. 如何保持主和備NameNode的狀態同步,並讓Standby在Active掛掉後迅速提供服務,namenode啟動比較耗時,包括加載fsimage和editlog(獲取file to block信息),處理所有datanode第一次blockreport(獲取block to datanode信息),保持NN的狀態同步,需要這兩部分信息同步。
2. 腦裂(split-brain),指在一個高可用(HA)系統中,當聯系著的兩個節點斷開聯系時,本來為一個整體的系統,分裂為兩個獨立節點,這時兩個節點開始爭搶共享資源,結果會導致系統混亂。
3. NameNode切換對外透明,主Namenode切換到另外一臺機器時,不應該導致正在連接的客戶端失敗,主要包括Client,Datanode與NameNode的鏈接。
社區NN的HA架構,實現原理,各部分的實現機制,解決了哪些問題?
1. 非HA的Namenode架構,一個HDFS集群只存在一個NN,DN只向一個NN匯報,NN的editlog存儲在本地目錄。
2. 社區NN HA的架構
圖1,NN HA架構(從社區復制)
社區的NN HA包括兩個NN,主(active)與備(standby),ZKFC,ZK,share editlog。
流程:集群啟動後一個NN處於active狀態,並提供服務,處理客戶端和datanode的請求,並把editlog寫到本地和share editlog(可以是NFS,QJM等)中。另外一個NN處於Standby狀態,它啟動的時候加載fsimage,然後周期性的從share editlog中獲取editlog,保持與active的狀態同步。為了實現standby在active掛掉後迅速提供服務,需要DN同時向兩個NN匯報
2.關鍵問題:
(1) 保持NN的狀態同步,通過standby周期性獲取editlog,DN同時想standby發送blockreport。
(2) 防止腦裂
共享存儲的fencing,確保只有一個NN能寫成功。使用QJM實現fencing,下文敘述原理。
datanode的fencing。確保只有一個NN能命令DN。HDFS-1972中詳細描述了DN如何實現fencing
(a) 每個NN改變狀態的時候,向DN發送自己的狀態和一個序列號。
(b) DN在運行過程中維護此序列號,當failover時,新的NN在返回DN心跳時會返回自己的active狀態和一個更大的序列號。DN接收到這個返回是認為該NN為新的active。
(c) 如果這時原來的active(比如GC)恢復,返回給DN的心跳信息包含active狀態和原來的序列號,這時DN就會拒絕這個NN的命令。
(d) 特別需要註意的一點是,上述實現還不夠完善,HDFS-1972中還解決了一些有可能導致誤刪除block的隱患,在failover後,active在DN匯報所有刪除報告前不應該刪除任何block。
客戶端fencing,確保只有一個NN能響應客戶端請求。讓訪問standby nn的客戶端直接失敗。在RPC層封裝了一層,通過FailoverProxyProvider以重試的方式連接NN。通過若幹次連接一個NN失敗後嘗試連接新的NN,對客戶端的影響是重試的時候增加一定的延遲。客戶端可以設置重試此時和時間。
ZKFC的設計
1. FailoverController實現下述幾個功能
(a) 監控NN的健康狀態
(b) 向ZK定期發送心跳,使自己可以被選舉。
(c) 當自己被ZK選為主時,active FailoverController通過RPC調用使相應的NN轉換為active。
2. 為什麽要作為一個deamon進程從NN分離出來
(1) 防止因為NN的GC失敗導致心跳受影響。
(2) FailoverController功能的代碼應該和應用的分離,提高的容錯性。
(3) 使得主備選舉成為可插拔式的插件。
圖2 FailoverController架構(從社區復制)
3. FailoverController主要包括三個組件,
(1) HealthMonitor 監控NameNode是否處於unavailable或unhealthy狀態。當前通過RPC調用NN相應的方法完成。
(2) ActiveStandbyElector 管理和監控自己在ZK中的狀態。
(3) ZKFailoverController 它訂閱HealthMonitor 和ActiveStandbyElector 的事件,並管理NameNode的狀態。
QJM的設計
Namenode記錄了HDFS的目錄文件等元數據,客戶端每次對文件的增刪改等操作,Namenode都會記錄一條日誌,叫做editlog,而元數據存儲在fsimage中。為了保持Stadnby與active的狀態一致,standby需要盡量實時獲取每條editlog日誌,並應用到FsImage中。這時需要一個共享存儲,存放editlog,standby能實時獲取日誌。這有兩個關鍵點需要保證, 共享存儲是高可用的,需要防止兩個NameNode同時向共享存儲寫數據導致數據損壞。 是什麽,Qurom Journal Manager,基於Paxos(基於消息傳遞的一致性算法)。這個算法比較難懂,簡單的說,Paxos算法是解決分布式環境中如何就某個值達成一致,(一個典型的場景是,在一個分布式數據庫系統中,如果各節點的初始狀態一致,每個節點都執行相同的操作序列,那麽他們最後能得到一個一致的狀態。為保證每個節點執行相同的命令序列,需要在每一條指令上執行一個‘一致性算法‘以保證每個節點看到的指令一致)
圖3 QJM架構
如何實現,
(1) 初始化後,Active把editlog日誌寫到2N+1上JN上,每個editlog有一個編號,每次寫editlog只要其中大多數JN返回成功(即大於等於N+1)即認定寫成功。
(2) Standby定期從JN讀取一批editlog,並應用到內存中的FsImage中。
(3) 如何fencing: NameNode每次寫Editlog都需要傳遞一個編號Epoch給JN,JN會對比Epoch,如果比自己保存的Epoch大或相同,則可以寫,JN更新自己的Epoch到最新,否則拒絕操作。在切換時,Standby轉換為Active時,會把Epoch+1,這樣就防止即使之前的NameNode向JN寫日誌,也會失敗。
(4) 寫日誌:
(a) NN通過RPC向N個JN異步寫Editlog,當有N/2+1個寫成功,則本次寫成功。
(b) 寫失敗的JN下次不再寫,直到調用滾動日誌操作,若此時JN恢復正常,則繼續向其寫日誌。
(c) 每條editlog都有一個編號txid,NN寫日誌要保證txid是連續的,JN在接收寫日誌時,會檢查txid是否與上次連續,否則寫失敗。
(5) 讀日誌:
(a) 定期遍歷所有JN,獲取未消化的editlog,按照txid排序。
(b) 根據txid消化editlog。
(6) 切換時日誌恢復機制
(a) 主從切換時觸發
(b) 準備恢復(prepareRecovery),standby向JN發送RPC請求,獲取txid信息,並對選出最好的JN。
(c) 接受恢復(acceptRecovery),standby向JN發送RPC,JN之間同步Editlog日誌。
(d) Finalized日誌。即關閉當前editlog輸出流時或滾動日誌時的操作。
(e) Standby同步editlog到最新
(7) 如何選取最好的JN
(a) 有Finalized的不用in-progress
(b) 多個Finalized的需要判斷txid是否相等
(c) 沒有Finalized的首先看誰的epoch更大
(d) Epoch一樣則選txid大的。
Hadoop NameNode HA模式的搭建以及原理