1. 程式人生 > >ceph: PG 狀態

ceph: PG 狀態

在某個時間點上, 根據叢集的內部狀況, Ceph PG 可能會呈現出幾種不同的狀態. 要了解 PG 的狀態, 可以檢視 ceph status 命令的輸出.

creating : PG 正在被建立. 通常當儲存池正在被建立或增加一個儲存池的 PG 數目時, PG 會呈現這種狀態.

active : PG 是活動的, 這意味著 PG 中的資料可以被讀寫, 對該 PG 的操作請求都將被處理.

clean : PG 中的所有物件都已被複制了規定的份數.

down : 包含 PG 必需資料的一個副本失效了, 因此 PG 是離線的.

replay : 某 osd 崩潰後 PG 正在等待客戶端重新發起操作.

splitting : PG 正在被分割為多個 PG. 該狀態通常在一個儲存池的 PG 數增加後呈現. 比如說, 當你將 rbd 儲存池的 PG 數目從 64 增加到 128 後, 已有的 PG 將會被分割, 它們的部分物件會被移動到新的 PG 上.

scrubbing : PG 正在做不一致性校驗.

degraded : PG 中部分物件的副本數未達到規定數目.

inconsistent : PG 的副本出現了不一致. 比方說, 物件的大小不正確, 或者恢復結束後某副本出現了物件丟失的情形.

peering : PG 正處於 peering 過程中. peering 是由主 osd 發起的使存放 PG 副本的所有 osd 就 PG 的所有物件和元資料的狀態達成一致的過程. peering 過程完成後, 主 osd 就能接受客戶端寫請求了.

repair : PG 正在被檢查, 被發現的任何不一致都將盡可能地被修復.

recovering : PG 正在遷移或同步物件及副本. 一個 osd 停止服務後, 其內容版本將會落後於 PG 內的其他副本, 這時 PG 就會進入該狀態, 該 osd 上的物件將被從其他副本遷移或同步過來.

backfill : 一個新 osd 加入集群后, CRUSH 會把叢集現有的一部分 PG 分配給它, 該過程被稱為回填. 回填程序完成後, 新 osd 準備好了後就可以對外服務.

backfill-wait: PG 正在等待開始回填操作.

incomplete : PG 日誌中缺失了一關鍵時間段的資料. 當包含 PG 所需資訊的某 osd 失效或者不可用之後, 往往會出現這種情況.

stale : PG 處於未知狀態 - monitors 在 PG map 狀態改變後還沒收到過 PG 的更新. 啟用一個集群后, 常常會看到在 peering 過程結束前 PG 處於該狀態.

remapped : 當 PG 的 acting set 變化後, 資料將會從舊 acting set 遷移到新 action set. 新主 osd 需要過一段時間後才能提供服務. 因此, 它會讓老的主 osd 繼續提供服務, 直到 PG 遷移完成. 資料遷移完成後, PG map 將使用新 acting set 中的主 osd.

(本篇完)

相關推薦

ceph: PG 狀態

在某個時間點上, 根據叢集的內部狀況, Ceph PG 可能會呈現出幾種不同的狀態. 要了解 PG 的狀態, 可以檢視 ceph status 命令的輸出. creating : PG 正在被建立. 通常當儲存池正在被建立或增加一個儲存池的 PG 數目時, PG 會呈現這

分散式儲存CephPG狀態詳解

本文是滴滴雲開源框架教程系列文章的一篇。 上次分享了《Ceph介紹及原理架構分享》,這次來分享Ceph中的PG各種狀態詳解,PG是最複雜和難於理解的概念之一,PG的複雜如下: 在架構層次上,PG位於RADOS層的中間。 a. 往上負責接收和處理來自客戶端的請求

分布式存儲CephPG狀態詳解

use 一致性 d+ 外部 start target 8.4 編號 back https://www.jianshu.com/p/36c2d5682d87 1. PG介紹 繼上次分享的《Ceph介紹及原理架構分享》,這次主要來分享Ceph中的PG各種狀態詳解,P

ceph健康狀態監控

監控一個ceph叢集 一旦你有一個叢集,你可能回使用ceph工具去監控你的叢集。監控一個叢集涉及到檢查osd狀態,monitors狀態,pg狀態及mds狀態 使用命令列 互動模式 在互動模式執行ceph工具,鍵入ceph不加引數 檢查叢集狀態 啟動集群后,你開始讀

ceph-pg

mea report last prim snap isp bsp 1.8 rgw 版本:mimic mon_command failed - pg_num 128 size 3 would mean 6147 total pgs, which exceeds

記一次ceph pg unfound處理過程

今天檢查ceph叢集,發現有pg丟失,於是就有了本文~~~ ### 1.檢視叢集狀態 ```shell [root@k8snode001 ~]# ceph health detail HEALTH_ERR 1/973013 objects unfound (0.000%); 17 scrub errors;

ceph儲存 PG狀態機和peering過程

6).本端使用handle_pg_query 處理g_query_t::LOG,將其封裝成為MOSDPGLog訊息,該訊息傳送到目標auth osd後,有auth osd解封訊息,並且構造PG::MLogRec事件,傳送給auth_osd處理,在auth_osd上形成MQuery& query 交給p

ceph中:pool、PG、OSD的關系

不同 osd 概念 group 主從 裏的 內部使用 相同 磁盤 原文:http://www.cnblogs.com/me115/p/6366374.html Pool是存儲對象的邏輯分區,它規定了數據冗余的類型和對應的副本分布策略;支持兩種類型:副本(replicated

ceph學習筆記之四PG

sds ceph cloud 對象 pg PG PG(Placement Group)單從名字上可理解為一個放置策略組,它是對象的集合,集合裏的所有對象具有相同的放置策略;對象的副本都分布在相同的OSD列表上。一個對象只能屬於一個PG,一個PG對應於放置在其上的OSD列表。一個OSD上可

cephPG邏輯概念

分布 mon scrub 一個 osd 糾錯 cluster 不能 匯報 一、ceph分存式存儲 rados:可靠的,自動的,分布式,對象存儲 特性:高效性,統一性(文件存儲,塊存儲,對象存儲),可擴展 cluster map pool(池): 1、pg

ceph修改pg inconsistent

ceph pg inconsistent 異常情況 1、收到異常情況如下: HEALTH_ERR 37 scrub errors; Possible data damage: 1 pg inconsistent 2、查看詳細信息 #ceph health detail HEALTH_ERR 37 sc

CentOS 7.2 安裝部署 Ceph 及新增 PG

前期準備:準備三臺CentOS 7.2系統,每臺機器三塊硬碟,關閉selinux,關閉iptables,做好時間同步,做好本地域名解析,並對每臺機器做互信。192.168.10.101 ceph-node1192.168.10.22 ceph-node2192.168.10.33 ceph-node3每臺機器

CentOS 7.2 安裝部署 Ceph 及添加 PG

狀況 告警 通過 健康狀況 pub sort network check 多文件 前期準備:準備三臺CentOS 7.2系統,每臺機器三塊硬盤,關閉selinux,關閉iptables,做好時間同步,做好本地域名解析,並對每臺機器做互信。192.168.10.101 ce

ceph 獲取每個osd上pg的數量

Get the PG distribution per osd in command line : ceph pg dump | awk ' /^pg_stat/ { col=1; while($col!="up") {col++}; col++ } /^[0-9a-f

rexray docker ceph-rbd 實現無狀態資料庫docker容器實戰

1.前提條件 1.1有了一個可用的ceph 叢集 其中mon1節點的IP 10.20.4.1 1.2 有2臺虛擬機器可以用於驗證測試,虛擬機器能上網,DNS設定正常。 關於如何建立ceph叢集,請參考文章:https://blog.csdn.net/happyfreeangel/arti

Ceph常見的幾種異常狀態——運維

【報錯1】:HEALTH_WARN mds cluster is degraded!!! 解決辦法有2步,第一步啟動所有節點: service ceph -a start 如果重啟後狀態未ok,那麼可以將ceph服務stop後再進行重啟   第二步,啟用osd節點

ceph 狀態以mail方式定時傳送報告

##ceph_report_email.py #! /usr/bin/env python # -*- coding: UTF-8 -*- import smtplib import os from email.mime.text import MIMEText mailto_list=['[em

ceph 叢集 健康狀態 監管

1、簡介 1.1 介紹     我們 需要 監測 的叢集 正在 執行的各種服務程序;叢集 所有 pgs 正常 狀態 為 active + clean,其餘 均為 異常 狀態     1.2 叢集 基礎 監測  &

ceph儲存 cephPG的意義

Overview PG = “placement group”. When placing data in the cluster, objects aremapped into PGs, and those PGs are mapped onto OSDs. We use theindirection s

另闢蹊徑Ceph原始碼分析之3:解析ceph pg_temp(ceph 臨時pg)

什麼是pg_temp 假設一個PG通過crush演算法對映到的三個osd是[0,1,2],此時,如果osd0出現故障,導致crush演算法重新分配該PG的三個osd是[3,1,2],此時,osd3為該PG的主osd,但是osd3為新加入的osd,並不