1. 程式人生 > >ZooKeeper叢集搭建例項,以及整合dubbo時的配置

ZooKeeper叢集搭建例項,以及整合dubbo時的配置

ZooKeeper叢集搭建例項,以及整合dubbo時的配置

zookeeper是什麼

Zookeeper,一種分散式應用的協作服務,GoogleChubby一個開源的實現,Hadoop的分散式協調服務,它包含一個簡單的原語集,應用於分散式應用的協作服務,使得分散式應用可以基於這些介面實現諸如同步、配置維護和分叢集或者命名的服務。

zookeeper是一個由多個service組成的叢集,一個leader,多個follower,每個server儲存一份資料部分,全域性資料一致,分散式讀寫,更新請求轉發由leader實施.

更新請求順序進行,來自同一個client的更新請求按其傳送順序依次執行

,資料更新原子性,一次資料更新要麼成功,要麼失敗,全域性唯一資料試圖,client無論連線到哪個server,資料試圖是一致的.

為什麼要用zookeeper

大部分分散式應用需要一個主控、協調器或控制器來管理物理分佈的子程序(如資源、任務分配等),目前,大部分應用需要開發私有的協調程式,缺乏一個通用的機制.協調程式的反覆編寫浪費,且難以形成通用、伸縮性好的協調器,ZooKeeper:提供通用的分散式鎖服務,用以協調分散式應用

zookeeper工作原理

zookeeper的核心是原子廣播,這個機制保證了各個server之間的同步,實現這個機制的協議叫做Zab協議.Zab協議有兩種模式

,他們分別是恢復模式和廣播模式.

  1.當服務啟動或者在領導者崩潰後,Zab就進入了恢復模式,當領導著被選舉出來,且大多數server都完成了和leader的狀態同步後,恢復模式就結束了.狀態同步保證了leaderserver具有相同的系統狀態.

  2.一旦leader已經和多數的follower進行了狀態同步後,他就可以開始廣播訊息了,即進入廣播狀態.這時候當一個server加入zookeeper服務中,它會在恢復模式下啟動,發下leader,並和leader進行狀態同步,待到同步結束,它也參與廣播訊息.

說明:

    廣播模式需要保證proposal被按順序處理,因此zk採用了遞增的事務

id(zxid)來保證.所有的提議(proposal)都在被提出的時候加上了zxid.實現中zxid是一個64為的數字,它高32位是epoch用來標識leader關係是否改變,每次一個leader被選出來,它都會有一個新的epoch.32位是個遞增計數.

    當leader崩潰或者leader失去大多數的follower,這時候zk進入恢復模式,恢復模式需要重新選舉出一個新的leader,讓所有的server都恢復到一個正確的狀態.

    zookeeper服務一致維持在Broadcast狀態,直到leader崩潰了或者leader失去了大部分的followers支援.

    Broadcast模式極其類似於分散式事務中的2pctwo-phrase commit兩階段提交):即leader提起一個決議,followers進行投票,leader對投票結果進行計算決定是否通過該決議,如果通過執行該決議(事務),否則什麼也不做.

Leader選舉

每個Server啟動以後都詢問其它的Server它要投票給誰,對於其他server的詢問,server每次根據自己的狀態都回復自己推薦的leaderid和上一次處理事務的zxid(系統啟動時每個server都會推薦自己),收到所有Server回覆以後,就計算出zxid最大的哪個Server,並將這個Server相關資訊設定成下一次要投票的Server.計算這過程中獲得票數最多的的sever為獲勝者,如果獲勝者的票數超過半數,則改server被選為leader.否則,繼續這個過程,直到leader被選舉出來.leader就會開始等待server連線,Follower連線leader,將最大的zxid傳送給leader,Leader根據followerzxid確定同步點,完成同步後通知follower已經成為uptodate狀態,Follower收到uptodate訊息後,又可以重新接受client的請求進行服務了.

zookeeper的資料模型

層次化的目錄結構,命名符合常規檔案系統規範

每個節點在zookeeper中叫做znode,並且其有一個唯一的路徑標識

節點Znode可以包含資料和子節點,但是EPHEMERAL型別的節點不能有子節點

Znode中的資料可以有多個版本,比如某一個路徑下存有多個數據版本,那麼查詢這個路徑下的資料就需要帶上版本

客戶端應用可以在節點上設定監視器,節點不支援部分讀寫,而是一次性完整讀寫

Zoopkeeper 提供了一套很好的分散式叢集管理的機制,就是它這種基於層次型的目錄樹的資料結構,並對樹中的節點進行有效管理,從而可以設計出多種多樣的分散式的資料管理模型

Zookeeper的節點

Znode有兩種型別,短暫的(ephemeral)和持久的(persistent

Znode的型別在建立時確定並且之後不能再修改

短暫znode的客戶端會話結束時,zookeeper會將該短暫znode刪除,短暫znode不可以有子節點

持久znode不依賴於客戶端會話,只有當客戶端明確要刪除該持久znode時才會被刪除

Znode有四種形式的目錄節點,PERSISTENTPERSISTENT_SEQUENTIALEPHEMERALEPHEMERAL_SEQUENTIAL.

znode 可以被監控,包括這個目錄節點中儲存的資料的修改,子節點目錄的變化等,一旦變化可以通知設定監控的客戶端,這個功能是zookeeper對於應用最重要的特性,

通過這個特性可以實現的功能包括配置的集中管理,叢集管理,分散式鎖等等.

Zookeeper的角色

領導者(leader,負責進行投票的發起和決議,更新系統狀態

學習者(learner,包括跟隨者(follower)和觀察者(observer.

follower用於接受客戶端請求並想客戶端返回結果,在選主過程中參與投票

Observer可以接受客戶端連線,將寫請求轉發給leader,observer不參加投票過程,只同步leader的狀態,observer的目的是為了擴充套件系統,提高讀取速度

客戶端(client,請求發起方

Watcher

Watcher ZooKeeper是一個核心功能,Watcher可以監控目錄節點的資料變化以及子目錄的變化,一旦這些狀態發生變化,伺服器就會通知所有設定在這個目錄節點上的Watcher,從而每個客戶端都很快知道它所關注的目錄節點的狀態發生變化,而做出相應的反應

可以設定觀察的操作:exists,getChildren,getData

可以觸發觀察的操作:create,delete,setData

znode以某種方式發生變化時,“觀察”(watch)機制可以讓客戶端得到通知.

可以針對ZooKeeper服務的“操作”來設定觀察,該服務的其他 操作可以觸發觀察.

比如,客戶端可以對某個客戶端呼叫exists操作,同時在它上面設定一個觀察,如果此時這個znode不存在,exists返回false,如果一段時間之後,這個znode被其他客戶端建立,則這個觀察會被觸發,之前的那個客戶端就會得到通知.

Zookeeper叢集搭建

Zookeeper 不僅可以單機提供服務,同時也支援多機組成叢集來提供服務,實際上Zookeeper還支援另外一種偽叢集的方式,也就是可以在一臺物理機上執行多個Zookeeper例項.

Zookeeper通過複製來實現高可用性,只要集合體中半數以上的機器處於可用狀態,它就能夠保證服務繼續。

叢集容災性:

 3臺機器只要有2臺可用就可以選出leader並且對外提供服務(2n+1臺機器,可以容n臺機器掛掉)

Zookeeper偽分散式環境搭建:

1、去Zookeeper官網下載最新版本的Zookeeper.

[[email protected] zookeeper-cluster]# pwd

/export/search/zookeeper-cluster

[[email protected] zookeeper-cluster]# ls

zookeeper-3.4.6.tar.gz

[[email protected] zookeeper-cluster]#

[[email protected] zookeeper-cluster]# tar -zxvf zookeeper-3.4.6.tar.gz

#建立第一個叢集節點

[[email protected] zookeeper-cluster]# mv zookeeper-3.4.6 zookeeper-3.4.6-node1

[[email protected] zookeeper-cluster]# cd zookeeper-3.4.6-node1

[[email protected] zookeeper-3.4.6-node1]# pwd

/export/search/zookeeper-cluster/zookeeper-3.4.6-node1

#建立資料存放路徑

[[email protected] zookeeper-3.4.6-node1]# mkdir data

[[email protected] zookeeper-3.4.6-node1]# cd ../

#建立第二第三個叢集節點

[[email protected] zookeeper-cluster]# cp zookeeper-3.4.6-node1 zookeeper-3.4.6-node2 -R

[[email protected] zookeeper-cluster]# cp zookeeper-3.4.6-node1 zookeeper-3.4.6-node3 -R

[[email protected] zookeeper-cluster]# ls

zookeeper-3.4.6-node1  zookeeper-3.4.6-node2  zookeeper-3.4.6-node3  zookeeper-3.4.6.tar.gz

[[email protected] zookeeper-cluster]# cd zookeeper-3.4.6-node1/conf/

[[email protected] conf]# ls

configuration.xsl  log4j.properties  zoo_sample.cfg

#建立zoo.cfg檔案

[[email protected] conf]# cp zoo_sample.cfg zoo.cfg

2、配置zoo.cfg檔案:

#zookeeper-3.4.6-node1的配置

tickTime=2000

initLimit=10

syncLimit=5

clientPort=2181

dataDir=/export/search/zookeeper-cluster/zookeeper-3.4.6-node1/data

server.1=localhost:2887:3887

server.2=localhost:2888:3888

server.3=localhost:2889:3889

#zookeeper-3.4.6-node2的配置

tickTime=2000

initLimit=10

syncLimit=5

clientPort=2182

dataDir=/export/search/zookeeper-cluster/zookeeper-3.4.6-node2/data

server.1=localhost:2887:3887

server.2=localhost:2888:3888

server.3=localhost:2889:3889

#zookeeper-3.4.6-node3的配置

tickTime=2000

initLimit=10

syncLimit=5

clientPort=2183

dataDir=/export/search/zookeeper-cluster/zookeeper-3.4.6-node3/data

server.1=localhost:2887:3887

server.2=localhost:2888:3888

server.3=localhost:2889:3889

引數說明:

tickTime=2000:

tickTime這個時間是作為Zookeeper伺服器之間或客戶端與伺服器之間維持心跳的時間間隔,也就是每個tickTime時間就會發送一個心跳;

initLimit=10:

initLimit這個配置項是用來配置Zookeeper接受客戶端(這裡所說的客戶端不是使用者連線Zookeeper伺服器的客戶端,而是Zookeeper伺服器叢集中連線到LeaderFollower伺服器)初始化連線時最長能忍受多少個心跳時間間隔數。

當已經超過10個心跳的時間(也就是tickTime)長度後Zookeeper 伺服器還沒有收到客戶端的返回資訊,那麼表明這個客戶端連線失敗。總的時間長度就是10*2000=20 秒;

syncLimit=5:

syncLimit這個配置項標識LeaderFollower之間傳送訊息,請求和應答時間長度,最長不能超過多少個tickTime的時間長度,總的時間長度就是5*2000=10秒;

dataDir=/export/search/zookeeper-cluster/zookeeper-3.4.6-node1/data

dataDir顧名思義就是Zookeeper儲存資料的目錄,預設情況下Zookeeper將寫資料的日誌檔案也儲存在這個目錄裡;

clientPort=2181

clientPort這個埠就是客戶端連線Zookeeper伺服器的埠,Zookeeper會監聽這個埠接受客戶端的訪問請求;

server.1=localhost:2887:3887

server.2=localhost:2888:3888

server.3=localhost:2889:3889

server.A=BCD

A是一個數字,表示這個是第幾號伺服器,B是這個伺服器的ip地址

C第一個埠用來叢集成員的資訊交換,表示的是這個伺服器與叢集中的Leader伺服器交換資訊的埠

D是在leader掛掉時專門用來進行選舉leader所用

3、建立ServerID標識

除了修改zoo.cfg配置檔案,叢集模式下還要配置一個檔案myid,這個檔案在dataDir目錄下,這個檔案裡面就有一個數據就是A的值,在上面配置檔案中zoo.cfg中配置的dataDir路徑中建立myid檔案

[[email protected] zookeeper-cluster]# cat /export/search/zookeeper-cluster/zookeeper-3.4.6-node1/data/myid

1

[[email protected] zookeeper-cluster]# cat /export/search/zookeeper-cluster/zookeeper-3.4.6-node2/data/myid

2

[[email protected] zookeeper-cluster]# cat /export/search/zookeeper-cluster/zookeeper-3.4.6-node3/data/myid

3

4、啟動zookeeper

[[email protected] zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node1/bin/zkServer.sh start

JMX enabled by default

Using config: /export/search/zookeeper-cluster/zookeeper-3.4.6-node1/bin/../conf/zoo.cfg

Starting zookeeper ... STARTED

[[email protected] zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node2/bin/zkServer.sh start

JMX enabled by default

Using config: /export/search/zookeeper-cluster/zookeeper-3.4.6-node2/bin/../conf/zoo.cfg

Starting zookeeper ... STARTED

[[email protected] zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node3/bin/zkServer.sh start

JMX enabled by default

Using config: /export/search/zookeeper-cluster/zookeeper-3.4.6-node3/bin/../conf/zoo.cfg

Starting zookeeper ... STARTED

5、檢測叢集是否啟動

[[email protected] zookeeper-cluster]# echo stat|nc localhost 2181

[[email protected] zookeeper-cluster]# echo stat|nc localhost 2182

[[email protected] zookeeper-cluster]# echo stat|nc localhost 2183

#或者

[[email protected] zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node1/bin/zkCli.sh

[[email protected] zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node2/bin/zkCli.sh

[[email protected] zookeeper-cluster]# /export/search/zookeeper-cluster/zookeeper-3.4.6-node3/bin/zkCli.sh

偽叢集部署注意事項:

在一臺機器上部署了3server;需要注意的是clientPort這個埠,如果在1臺機器上部署多個server,那麼每個server都要有不同的clientPort.

比如 server.12181,server.22182,server.32183

最後幾行唯一需要注意的地方就是

server.X 這個數字就是對應 data/myid中的數字。你在3servermyid檔案中分別寫入了1,2,3,那麼每個server中的zoo.cfg都配server.1,server.2,server.3OK

整合dubbo時的配置:

提供者:

<dubbo:registry protocol="zookeeper"  address="192.168.8.101:2181,192.168.8.101:2182,192.168.8.101:2183" />

消費者:

<dubbo:registry protocol="zookeeper"   address="192.168.8.101:2181,192.168.8.101:2182,192.168.8.101:2183" />

具體詳情可以參考:https://github.com/alibaba/dubbo

--------------------------------------分割線 --------------------------------------

Ubuntu 14.04安裝分散式儲存Sheepdog+ZooKeeper  http://www.linuxidc.com/Linux/2014-12/110352.htm

CentOS 6安裝sheepdog虛擬機器分散式儲存  http://www.linuxidc.com/Linux/2013-08/89109.htm

ZooKeeper叢集配置 http://www.linuxidc.com/Linux/2013-06/86348.htm

使用ZooKeeper實現分散式共享鎖http://www.linuxidc.com/Linux/2013-06/85550.htm

分散式服務框架 ZooKeeper -- 管理分散式環境中的資料http://www.linuxidc.com/Linux/2013-06/85549.htm

ZooKeeper叢集環境搭建實踐 http://www.linuxidc.com/Linux/2013-04/83562.htm

ZooKeeper伺服器叢集環境配置實測 http://www.linuxidc.com/Linux/2013-04/83559.htm

ZooKeeper叢集安裝 http://www.linuxidc.com/Linux/2012-10/72906.htm

本文永久更新連結地址:http://www.linuxidc.com/Linux/2015-02/114230.htm