ceph之PG邏輯概念
阿新 • • 發佈:2017-10-03
分布 mon scrub 一個 osd 糾錯 cluster 不能 匯報
一、ceph分存式存儲
rados:可靠的,自動的,分布式,對象存儲
特性:高效性,統一性(文件存儲,塊存儲,對象存儲),可擴展
cluster map
pool(池):
1、pg
2、副本數
3、crush規則(pg--->osd:acting set)
4、用戶及權限
pool分兩種類型:
1、復制類型
2、糾錯碼類型(1、速度慢 2、scrubling,不支持ceph的所有操作)
PG的概念:
epoach: 單調遞增的版本號
acting set: osd列表, 第一個為primary(主) osd, replicated(復制) osd列表
up set: acting set 過去的版本
pg tmp(臨時pg):一個主三個人,主掛掉,就會出現臨時的pg組
pg的狀態:
ceph -s (zabbix監控一個pg的狀態,用的命令ceph -s)
creating :在磁盤上分發一個pg的信息給他,就會進入creating狀態
peering :找認識的組員,沒有拿到分發的數據(沒有拷貝數據給他)
active :找到組員,就會進入active狀態
clean :數據拷貝完成,就進入clean
stable(穩定的): 300s之內,狀態沒有返回
backfilling :新加osd節點(動態調整的狀態)
recovery: 增量拷貝
osd daemon狀態:默認每2s匯報自己給mon( 同時監控組內其它osd狀態)
1、up:可以提供io
2、down:不能提供io
3、in:有數據
4、out :沒數據了,2s沒有匯報就從組內踢除掉他,就會進入backfilling(填充)
ceph之PG邏輯概念