1. 程式人生 > 實用技巧 >Ceph彙總(一)---基礎知識

Ceph彙總(一)---基礎知識

一、Ceph元件

  1. Monitor
    叢集的管理者。通過維護叢集檢視(cluster map)來達到維護叢集的目的,同時負責管理守護程式和客戶端之間的身份驗證。
  2. Osd
    實際處理資料的裝置(包括資料的存取、複製、恢復、再均衡)。通過檢查其他osd守護程式的心跳來向mon和mgr(L版本新增的元件)提供一些監視資訊。生產環境一般一個osd對應一塊硬碟。
  3. Mgr
    L版本後從mon獨立出來的元件。負責跟蹤執行時的指標和ceph叢集的當前狀態,包括儲存利用率、當前效能指標和系統負載、基於web的ceph儀表盤。
  4. Mds
    Ceph檔案系統儲存元資料(在叢集需要支援檔案儲存時安裝即可)。

二、Ceph名詞解釋

  1. RADOS:

    Reliable Autonomic Distributed Object Store,可靠的、自主的、分散式物件儲存(由mon和osd組成)

  2. Cluster Map:
    Monitor map:包含每個mon服務的位置、埠、版本等等
    Osd map:包含一些配置(如full、nearfull閾值)、pool列表、副本大小、osd的位置、埠等等
    Pg map:包含pg的id、狀態、up在哪些osd上等等
    Mds map:包含元資料伺服器列表等資訊
    CRUSH map:包含儲存裝置的物理拓撲、故障域劃分、儲存資料時的遍歷層次結構的規則等等

  3. RGW
    RADOS GateWay,ceph的S3/Swift閘道器元件,需要支援物件儲存時安裝。

  4. RBD
    RADOS Block Device,ceph的塊儲存元件。

  5. CRUSH
    Controlled Replication Under Scalable Hashing,可擴充套件雜湊下的受控複製。是ceph進行擴充套件的重要組成部分,理論上沒有效能瓶頸,沒有可擴充套件性的限制,也沒有單點故障。

  6. pool
    用於儲存物件的邏輯組,管理pg數量、副本數量及crush規則。

  7. pg
    Ceph的邏輯儲存單元,管理、維護資料,但不儲存資料。引入pg是為了更好的分配資料和定位資料。

三、Ceph架構

  1. 架構:
    架構

  2. 網路架構:

網路架構業務網負責與client之間的請求、資料傳輸;儲存網負責副本拷貝、叢集恢復。

  1. pool、pg、osd的對應關係:
    在這裡插入圖片描述

pool與pg是一對多的關係:一個Pool裡有很多PG
pg與osd是多對多的關係:PG有主從之分,一個PG分佈在不同的OSD上,多個osd組合成一個PG
物件(物件儲存):一個PG裡包含一堆物件;一個物件只能屬於一個PG;