1. 程式人生 > >CEPH pool 建立使用監控

CEPH pool 建立使用監控

建立一個名字叫data的pool,它由10個pg組成, 用於存放object
[[email protected] build]cephosdpoolcreatedata10rados,pg8[harvis@centos7libradosexample] rados mkpool data
successfully created pool data
[[email protected] librados_example]$ ceph osd pool get data pg_num
pg_num: 8

刪除一個 pool 的方法,pool 的名字要出現兩次
[

[email protected] librados_example]$ rados rmpool data data –yes-i-really-really-mean-it
successfully deleted pool data

檢視 pool 對應的crush_rule
[[email protected] librados_example]$ ceph osd pool get data crush_rule
crush_rule: replicated_ruleset

檢視所有的 pool, 列印所有 pool 的名字
[[email protected]

librados_example]$ rados lspools
rbd
cephfs_data_a
cephfs_metadata_a
data

rados 命令的詳細用法
[[email protected] librados_example]$ rados –help
usage: rados [options] [commands]
POOL COMMANDS
lspools list pools
mkpool [123[ 4]] create pool ’
[with auid 123[and using crush rule 4]]
cppool copy content of a pool
rmpool [ –yes-i-really-really-mean-it]
remove pool ’
purge –yes-i-really-really-mean-it
remove all objects from pool without removing it
df show per-pool and total usage
ls list objects in pool

chown 123 change the pool owner to auid 123

POOL SNAP COMMANDS
lssnap list snaps
mksnap create snap
rmsnap remove snap

OBJECT COMMANDS
get [outfile] fetch object
put [infile] [–offset offset]
write object write object start offset(default:0)
append [infile] append object
truncate length truncate object
create create object
rm …[–force-full] [force no matter full or not]remove object(s)
cp [target-obj] copy object
listxattr
getxattr attr
setxattr attr val
rmxattr attr
stat objname stat the named object
mapext
rollback roll back object to snap

listsnaps list the snapshots of this object
bench write|seq|rand [-t concurrent_operations] [–no-cleanup] [–run-name run_name] [–no-hints]
default is 16 concurrent IOs and 4 MB ops
default is to clean up after write benchmark
default run-name is ‘benchmark_last_metadata’
cleanup [–run-name run_name] [–prefix prefix]
clean up a previous benchmark operation
default run-name is ‘benchmark_last_metadata’
load-gen [options] generate load on the cluster
listomapkeys list the keys in the object map
listomapvals list the keys and vals in the object map
getomapval [file] show the value for the specified key
in the object’s object map
setomapval
rmomapkey
getomapheader [file]
setomapheader
tmap-to-omap convert tmap keys/values to omap
watch add watcher on this object
notify notify watcher of this object with message
listwatchers list the watchers of this object
set-alloc-hint
set allocation hint for an object

IMPORT AND EXPORT
export [filename]
Serialize pool contents to a file or standard out.
import [–dry-run] [–no-overwrite] < filename | - >
Load pool contents from a file or standard in

ADVISORY LOCKS
lock list
List all advisory locks on an object
lock get
Try to acquire a lock
lock break
Try to break a lock acquired by another client
lock info
Show lock information
options:
–lock-tag Lock tag, all locks operation should use
the same tag
–lock-cookie Locker cookie
–lock-description Description of lock
–lock-duration Lock duration (in seconds)
–lock-type Lock type (shared, exclusive)

SCRUB AND REPAIR:
list-inconsistent-pg list inconsistent PGs in given pool
list-inconsistent-obj list inconsistent objects in given pg
list-inconsistent-snapset list inconsistent snapsets in the given pg

CACHE POOLS: (for testing/development only)
cache-flush flush cache pool object (blocking)
cache-try-flush flush cache pool object (non-blocking)
cache-evict evict cache pool object
cache-flush-evict-all flush+evict all objects
cache-try-flush-evict-all try-flush+evict all objects

GLOBAL OPTIONS:
–object_locator object_locator
set object_locator for operation
-p pool
–pool=pool
select given pool by name
–target-pool=pool
select target pool by name
-b op_size
set the block size for put/get ops and for write benchmarking
-o object_size
set the object size for put/get ops and for write benchmarking
–max-objects
set the max number of objects for write benchmarking
-s name
–snap name
select given snap name for (read) IO
-i infile
–create
create the pool or directory that was specified
-N namespace
–namespace=namespace
specify the namespace to use for the object
–all
Use with ls to list objects in all namespaces
Put in CEPH_ARGS environment variable to make this the default
–default
Use with ls to list objects in default namespace
Takes precedence over –all in case –all is in environment
–target-locator
Use with cp to specify the locator of the new object
–target-nspace
Use with cp to specify the namespace of the new object
–striper
Use radostriper interface rather than pure rados
Available for stat, get, put, truncate, rm, ls and
all xattr related operations

BENCH OPTIONS:
-t N
–concurrent-ios=N
Set number of concurrent I/O operations
–show-time
prefix output with date/time
–no-verify
do not verify contents of read objects
–write-object
write contents to the objects
–write-omap
write contents to the omap
–write-xattr
write contents to the extended attributes

LOAD GEN OPTIONS:
–num-objects total number of objects
–min-object-size min object size
–max-object-size max object size
–min-op-len min io size of operations
–max-op-len max io size of operations
–max-ops max number of operations
–max-backlog max backlog size
–read-percent percent of operations that are read
–target-throughput target throughput (in bytes)
–run-length total time (in seconds)
CACHE POOLS OPTIONS:
–with-clones include clones when doing flush or evict
OMAP OPTIONS:
–omap-key-file file read the omap key from a file
[[email protected] librados_example]$

相關推薦

CEPH pool 建立使用監控

建立一個名字叫data的pool,它由10個pg組成, 用於存放object [[email protected] build]cephosdpoolcreatedata10也可以用命令rados來創建,pg的大小默認為8[harvis@centos

cephpool建立流程--程式碼分析

ceph中的pool有兩種型別:replicated pool和erasure pool 這裡從rados介面開始跟蹤分析一下pool的建立過程一、rados介面部分 1、rados裡建立pool的介面是(librados.cc) int librados::Rados::

ceph pool 管理

body convert count stripe style efi osd store des 創建池 [root@node1 ~]# ceph osd pool create monitor 128 pool ‘monitor‘ created 查看池 [roo

Zabbix 利用模板和宏 快速建立監控

eat util color 主機數 process 技術分享 技術 macros ext 前言: 在原有zabbix 服務的基礎上新添應用監控,應用監控指標有10余項,同類型應用有10余個,主機有20+。如果采用單指標逐條添加,要添加10(指標項)×10(應用數)×20(

快速構建ceph視覺化監控系統

前言 ceph的視覺化方案很多,本篇介紹的是比較簡單的一種方式,並且對包都進行了二次封裝,所以能夠在極短的時間內構建出一個視覺化的監控系統 本系統元件如下: ceph-jewel版本 ceph_exporter的jewel版本 prometheus的2.

ceph健康狀態監控

監控一個ceph叢集 一旦你有一個叢集,你可能回使用ceph工具去監控你的叢集。監控一個叢集涉及到檢查osd狀態,monitors狀態,pg狀態及mds狀態 使用命令列 互動模式 在互動模式執行ceph工具,鍵入ceph不加引數 檢查叢集狀態 啟動集群后,你開始讀

【實踐】Ceph建立Cephfs檔案

Ceph檔案系統(CEPH FS)是一個POSIX相容的檔案系統,使用Ceph的儲存叢集來儲存其資料。使用Ceph的檔案系統,在你的Ceph的儲存叢集裡至少需要存在一個Ceph的元資料伺服器。作者:Younger Liu,原文地址:http://blog.csdn.net/y

ceph pool 管理(基礎操作)

換算 key rul 管理 val -c 使用 規則 容量 ceph 雲存儲 中,數據 都是 寫入 pool 這個 邏輯 概念中,所以 需要 掌握 pool 相關的 管理 操作(本文 所有 的相關 操作 暫時 只先 列舉 一個),本文 列出 相關 的 基本操作(至於 鏡像、

ceph pool

pool的好處 1. 彈性:由於pool可以設定副本數,所以可以容忍一定數量的osd失效。 2. pg:可以設定pool的最大pg數量。一般來說,每個osd建議設定100pg,但是pg總數要除以副本數。例如,有10個osd,size設定為4,那麼pg應該設定

Zabbix-(三)監控主機CPU、磁碟、記憶體並建立監控圖形

Zabbix-(三)監控主機CPU、磁碟、記憶體並建立監控圖形 一.前言 前文中已經講述了兩種方式對Zabbix的搭建,本文將講述如何在zaibbx上新增需要監控的主機,以及使用Zabbix自帶模板和自定義模板對主機的CPU、磁碟、記憶體進行監控,並觸發問題,並且在Zabbix儀表盤建立實時監控圖形。 準備

ceph監控管理平臺calamari

calamari ceph監控平臺 centos7安裝calamari 支持jewel 環境已有: CentOS 7.3(基礎設施服務器) Ceph 10.2.7(jewel)後部署:Calamari 1.3.3介紹註:介紹和rpm包均出自磨大神博客http://www.zphj1987.co

ceph中:pool、PG、OSD的關系

不同 osd 概念 group 主從 裏的 內部使用 相同 磁盤 原文:http://www.cnblogs.com/me115/p/6366374.html Pool是存儲對象的邏輯分區,它規定了數據冗余的類型和對應的副本分布策略;支持兩種類型:副本(replicated

ceph學習筆記之五 Pool與映射過程

ceph sds Pool Pool是一個抽象的存儲池,它規定了數據冗余的類型以及對應的副本分布策略。目前實現了兩種Pool類型:Replicated類型和Erasure Code類型。一個Pool由多個PG構成。對象映射過程 對象映射過程指的是查找對象在集群中分布的位置信息,其過程分為兩步:A、

instance在ceph對應pool的位置查詢

ceph pool先是rados -p vms ls 查看 map的id然後通過map的ID 去查看所在pg的位置ceph osd map vms rbd_object_map.25f24a3c4e2d通過ceph osd tree | grep -A 10 osd.216查看所在設備遠程登錄所在設備進入相應

graphite+grafana監控openstack和ceph

openstack 監控本文環境:CentOS 7.3.1611,openstack+ceph架構圖如下,服務端部分可以分開也可以部署在同一臺主機上:一、添加epel源和base源,安裝carbon和whisper,whisper用於存儲監控的數據,類似rrd文件那樣固定大小:yum install pyth

Cephceph-dash集群監控工具部署

amp app size nsh 1.5 file python tor too Ceph-dash是一款圖形化展現Ceph狀態的工具,並且部署起來非常簡單(在monitor節點上進行部署),操作如下:# mkdir -p /ceph-dash # cd /ceph-das

建立Heapster Influxdb Grafana集群性能監控平臺

color targe variable alt select external nmb comment space 依賴於kubenets dns服務地址:https://note.youdao.com/web/#/file/WEB42cf75c02ae113136ff6

【實操】建立監控報警規則

大家好,本期為大家介紹如何使用雲監控報警服務。報警服務提供監控資料的報警功能,我們通過設定報警規則來定義報警系統如何檢查監控資料,並在監控資料滿足報警條件時傳送報警通知。對我們的重要監控指標設定報警規則,可以在第一時間得知指標資料發生異常,迅速處理故障。 首先登入管理控制檯,在產品與服務→監控與管理中點選雲

##3.ceph建立

 ###openstack-ocata 單節點安裝 部署 目錄彙總   1. controller上建立ceph卷型別cinder --os-username admin --os-tenant-name admin type-create cephcinder --os-userna

java回撥原理,以及Callable和FutureTask通過回撥機制建立監控的執行緒

回撥的概念會JS的人應該都能理解。 回撥分非同步回撥,同步回撥。但是同步回撥其實沒什麼意義。都同步了,那麼直接等那邊執行完了,這邊再執行就可以了,沒必要通過回撥。我們說的回撥主要是講非同步回撥。用於兩個執行緒甚至兩個系統之間互動呼叫。 例如我在A類的方法funa()中,要呼叫B類的方法fun