1. 程式人生 > >ceph pool

ceph pool

pool的好處
1. 彈性:由於pool可以設定副本數,所以可以容忍一定數量的osd失效。
2. pg:可以設定pool的最大pg數量。一般來說,每個osd建議設定100pg,但是pg總數要除以副本數。例如,有10個osd,size設定為4,那麼pg應該設定為(100*10)/4=250
3. 自定義crush rules
4. 快照:可以為pool設定快照,獲取特定時期的狀態

列出pool

ceph osd lspools

建立pool

建立pool之前,要先了解pool的pg數策略。每個osd建議設定100pg,但是pg總數要除以副本數。例如,有10個osd,size設定為4,那麼pg應該設定為(100*10)/4=250 。官方建議重寫ceph配置檔案裡預設的pg數量,因為預設值不好。

osd pool default pg num = 100
osd pool default pgp num = 100

建立pool

ceph osd pool create {pool-name} {pg-num} [{pgp-num}][replicated] \
     [crush-rule-name][expected-num-objects]
ceph osd pool create {pool-name} {pg-num}  {pgp-num}   erasure \
     [erasure-code-profile][crush-rule-name][expected_num_objects]
  • {pool-name}

    • 描述:pool的名稱,一定要不重複
    • 型別:string
    • 必需:yes
  • {pg-num}

    • 描述:pool的pg總數,預設為8,基本不能滿足要求,所以一般要重寫
    • 型別:Integer
    • 必需:yes
    • default 8
  • {pgp-num}

    • 描述:搞不清楚是啥,但是一定要等於pg-num
    • 型別:Integer
    • 必需:yes,如果ceph配置檔案沒寫就會用預設值
    • default 8
  • {size}

    • 描述:副本數
    • 型別:Integer
    • 必需:yes
    • default 3
  • {min_size}

    • 描述:最小副本數
    • 型別:Integer
    • 必需:yes
    • default 3

刪除pool

ceph osd pool delete {pool-name} [{pool-name} --yes-i-really-really-mean-it]

想要刪除pool,ceph配置檔案裡的mon_allow_pool_delete必須設定為true,否則無法刪除pool

重新命名pool

ceph osd pool rename {current-pool-name} {new-pool-name}

如果你想重新命名一個pool,但是有個user配置了原pool的許可權,你需要先更新這個user的許可權設定為新pool。

檢視pool狀態

rados df 
ceph df

做pool快照

ceph osd pool mksnap {pool-name} {snap-name}

刪除快照

ceph osd pool rmsnap {pool-name} {snap-name}

檢視pool屬性

ceph osd pool get {pool-name} {key}
ceph osd pool get rbd size

不知道key怎麼辦?可以把key換為all,這樣就可以看到所有屬性

設定pool屬性

ceph osd pool set {pool-name} {key} {value}
ceph osd pool set rbd size 2

相關推薦

ceph pool 管理

body convert count stripe style efi osd store des 創建池 [root@node1 ~]# ceph osd pool create monitor 128 pool ‘monitor‘ created 查看池 [roo

ceph pool 管理(基礎操作)

換算 key rul 管理 val -c 使用 規則 容量 ceph 雲存儲 中,數據 都是 寫入 pool 這個 邏輯 概念中,所以 需要 掌握 pool 相關的 管理 操作(本文 所有 的相關 操作 暫時 只先 列舉 一個),本文 列出 相關 的 基本操作(至於 鏡像、

ceph pool

pool的好處 1. 彈性:由於pool可以設定副本數,所以可以容忍一定數量的osd失效。 2. pg:可以設定pool的最大pg數量。一般來說,每個osd建議設定100pg,但是pg總數要除以副本數。例如,有10個osd,size設定為4,那麼pg應該設定

CEPH pool 建立使用監控

建立一個名字叫data的pool,它由10個pg組成, 用於存放object [[email protected] build]cephosdpoolcreatedata10也可以用命令rados來創建,pg的大小默認為8[harvis@centos

ceph中:pool、PG、OSD的關系

不同 osd 概念 group 主從 裏的 內部使用 相同 磁盤 原文:http://www.cnblogs.com/me115/p/6366374.html Pool是存儲對象的邏輯分區,它規定了數據冗余的類型和對應的副本分布策略;支持兩種類型:副本(replicated

ceph學習筆記之五 Pool與映射過程

ceph sds Pool Pool是一個抽象的存儲池,它規定了數據冗余的類型以及對應的副本分布策略。目前實現了兩種Pool類型:Replicated類型和Erasure Code類型。一個Pool由多個PG構成。對象映射過程 對象映射過程指的是查找對象在集群中分布的位置信息,其過程分為兩步:A、

instance在ceph對應pool的位置查詢

ceph pool先是rados -p vms ls 查看 map的id然後通過map的ID 去查看所在pg的位置ceph osd map vms rbd_object_map.25f24a3c4e2d通過ceph osd tree | grep -A 10 osd.216查看所在設備遠程登錄所在設備進入相應

管理cephpool(快照,回滾)

pool是ceph儲存資料時的邏輯分割槽,它起到namespace的作用。其他分散式儲存系統,比如Mogilefs、Couchbase、Swift都有pool的概念,只是叫法不同。每個pool包含一定數量的PG,PG裡的物件被對映到不同的OSD上,因此pool是分佈到整個

cephpool建立流程--程式碼分析

ceph中的pool有兩種型別:replicated pool和erasure pool 這裡從rados介面開始跟蹤分析一下pool的建立過程一、rados介面部分 1、rados裡建立pool的介面是(librados.cc) int librados::Rados::

Ceph中replicated以及erasure型別pool寫效能對比

操作環境 Centos 7 Ceph 0.94.2 測試方法 分別建立replicated以及erasure型別的pool,通過rados bench進行寫效能的測試,而後進行效能對比。 測試步驟

如何刪除ceph的一個pool

其實執行程式碼: ceph osd pool delete ecpool ecpool –yes-i-really-really-mean-it 就可以完成刪除,但是此時有時候會報錯: Error

ceph 集群報 mds cluster is degraded 故障排查

ceph 故障排查 mds degraded ceph 集群報 mds cluster is degraded 故障排查ceph 集群版本:ceph -vceph version 10.2.7 (50e863e0f4bc8f4b9e31156de690d765af245185)ceph -w

tomcat部署新的項目啟動時出現報錯信息: Invalid byte tag in constant pool: 15

tomcat 啟動報錯 invalid byte tag in constant pool ......org.apache.tomcat.util.bcel.classfile.ClassFormatException: Invalid byte tag in constant pool: 15

run ceph in docker

日誌 aud run size 添加 bytes ive star rim 申明:基本安裝是依照http://dockone.io/article/436來進行的,但原文中ceph集群的搭建不夠完整。我這裏會做一些補充及說明。 1、 下載mon和osd鏡像

MS17-010 EternalBlue SMB Remote Windows Kernel Pool Corruption 2017-05-18 16:45

oca spool hub per bash .exe xpl del all wget "https://raw.githubusercontent.com/rapid7/metasploit-framework/6d81ca42087efd6548bfcf924172

ceph journal操作

size -o run daemon 操作 cep dmi /var/ 查詢 查詢ceph journal的地方 ceph --admin-daemon /var/run/ceph/ceph-osd.0.asok config show | grep osd_journal

CEPH

pda 搭建 selinux system code color min osd 安裝配置 Ceph 搭建文檔 硬件環境準備 3臺CentOS7。數據盤根據需要來定 軟件環境準備 關閉 SELINUX # sed -i ‘s/SELINUX=enforcing/SELIN

ubuntu環境ceph配置入門(二)

tex metadata term text ceph isp white consola sso 在高速配置好ceph存儲集群環境的基礎上,能夠做相關的對象操作: 1. 設置osd pool min_size 首先通過rados命令查看pool例如

[Go] sync.Pool 的實現原理 和 適用場景

臨時 digg 簡單的 設置 com 運行 之前 結果 官方文檔 摘錄一: Go 1.3 的 sync 包中加入一個新特性:Pool。 官方文檔可以看這裏 http://golang.org/pkg/sync/#Pool 這個類設計的目的是用來保存和復用臨時對象,以減

Go語言之並發示例-Pool(一)

go pool 並發 這篇文章演示使用有緩沖的通道實現一個資源池,這個資源池可以管理在任意多個goroutine之間共享的資源,比如網絡連接、數據庫連接等,我們在數據庫操作的時候,比較常見的就是數據連接池,也可以基於我們實現的資源池來實現。可以看出,資源池也是一種非常流暢性的模式,這種模式一般適用