kebu之rook-ceph
準備工作
- 所有節點開啟ip_forward
cat <<EOF > /etc/sysctl.d/ceph.conf
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system
開始部署Operator
- 部署Rook Operator
#無另外說明,全部操作都在master操作
cd $HOME
git clone https://github.com/rook/rook.git
cd rook cd cluster/examples/kubernetes/ceph kubectl apply -f operator.yaml
- 檢視Operator的狀態
#執行apply之後稍等一會。
#operator會在叢集內的每個主機建立兩個pod:rook-discover,rook-ceph-agent
kubectl -n rook-ceph-system get pod -o wide
相關推薦
kebu之rook-ceph
準備工作 所有節點開啟ip_forward cat <<EOF > /etc/sysctl.d/ceph.conf net.ipv4.ip_forward = 1 net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridg
kubernetes搭建rook-ceph
cpu databases ply scribe pac ont forward 回收 serve 簡介 Rook官網:https://rook.io Rook是雲原生計算基金會(CNCF)的孵化級項目. Rook是Kubernetes的開源雲本地存儲協調器,為各種存儲解
“Ceph淺析”系列之四Ceph的結構
轉載自:http://yizhaolingyan.net/?p=11 本文將從邏輯結構的角度對Ceph進行分析。 4.1 Ceph系統的層次結構 Ceph儲存系統的邏輯層次結構如下圖所示[1]。 自下向上,可以將Ceph系統
kubernetes部署rook+ceph儲存系統
rook簡介 Rook官網:https://rook.io 容器的持久化儲存 容器的持久化儲存是儲存容器儲存狀態的重要手段,儲存外掛會在容器裡掛載一個基於網路或者其他機制的遠端資料卷,使得在容器裡建立的檔案,實際上是儲存在遠端儲存伺服器上,或者以分散式的方式儲存在多個節點上,而與當前
“Ceph淺析”系列之五——Ceph的工作原理及流程
收到monitor發來的cluster map之後,這個新OSD計算出自己所承載的PG(為簡化討論,此處我們假定這個新的OSD開始只承載一個PG),以及和自己承載同一個PG的其他OSD。然後,新OSD將與這些OSD取得聯絡。如果這個PG目前處於降級狀態(即承載該PG的OSD個數少於正常值,如正
使用Rook+Ceph在Kubernetes上作持久儲存
使用Rook+Ceph在Kubernetes上作持久儲存 作者:Earl C. Ruby III 我想在新的Kubernetes叢集上安裝Prometheus和Grafana,但為了使這些軟體包能夠工作,他們需要一些地方來儲存持久資料。當我在Seagate擔任雲架構師時,我已經對Cep
Kubernetes中分散式儲存Rook-Ceph部署快速演練
最近在專案中有涉及到Kubernetes的分散式儲存部分的內容,也抽空多瞭解了一些。專案主要基於Rook-Ceph執行,考慮到Rook-Ceph部署也不那麼簡單,[官方文件](https://rook.io/docs/rook/v1.5/)的步驟起點也不算低,因此,在整合官方文件的某些步驟的基礎上,寫篇文章簡
ceph學習筆記之二RADOS
ceph sds Ceph學習筆記之二RADOS一、RADOS架構在RADOS架構中主要包含2個部分組件:1、MON(Monitor)由少量的Monitor節點構成的強耦合,小規模集群;負責管理Cluster Map。2、OSD(Object Storage Device)由數量可變的 大規模磁盤設備
ceph學習筆記之四PG
sds ceph cloud 對象 pg PG PG(Placement Group)單從名字上可理解為一個放置策略組,它是對象的集合,集合裏的所有對象具有相同的放置策略;對象的副本都分布在相同的OSD列表上。一個對象只能屬於一個PG,一個PG對應於放置在其上的OSD列表。一個OSD上可
ceph學習筆記之五 Pool與映射過程
ceph sds Pool Pool是一個抽象的存儲池,它規定了數據冗余的類型以及對應的副本分布策略。目前實現了兩種Pool類型:Replicated類型和Erasure Code類型。一個Pool由多個PG構成。對象映射過程 對象映射過程指的是查找對象在集群中分布的位置信息,其過程分為兩步:A、
ceph學習筆記之六 數據讀寫過程
ceph sds 數據寫過程1、Client向PG所在的主OSD發送寫請求。2、主OSD接收到寫請求,同時向兩個從OSD發送寫副本的請求,並同時寫入主OSD的本地存儲中。3、主OSD接收到兩個從OSD發送寫成功的ACK應答,同時確認自己寫成功,就向客戶端返回寫成功的ACK應答。4、在寫操作的過程中,主
ceph學習筆記之七 數據平衡
ceph sds 恢復 數據平衡 當在集群中新增一個OSD設備時,整個集群將會發生數據遷移使數據重新分布達到均衡。在Ceph集群中數據遷移的的基本單位是PG。其實在遷移過程中是將PG中的所有對象作為一個整體來進行遷移。數據遷移觸發流程: 1、當新加入一個OSD時,會改變系統的CRUSH Map
ceph學習筆記之八 CRUSH
sds ceph.crush CRUSH(Controlled Replication Under Scalable Hashing)它是一種基於偽隨機控制數據分布、復制的算法。數據分布式算法的要求:數據分布和負載均衡 首先要讓數據分布均勻,使數據能均勻的分布在各個節點和磁盤上。其次是負載均衡,使數據
ceph學習筆記之九 層級化的Cluster Map
sds ceph.crush 集群映射由Device和桶(Buckets)組成,設備和桶都有ID描述和權重。Bucket可以包含任意設備或者其他的bucket,使他們形成內部節點的存儲層次結構,設備總是在葉子節點。存儲設備的權重由管理員設置以控制設備負責存儲的相對數據量。盡管大型系統的設備含不同的容量
ceph學習筆記之十 副本放置策略
ceph sds 副本放置策略CRUSH 算法的設置目的是使數據能夠根據設備的存儲能力和寬帶資源加權平均地分布,並保持一個相對的概率平衡。副本放置在具有層次結構的存儲設備中,這對數據安全也有重要影響。通過反射系統的物理安裝組織,CRUSH算法可以將系統模塊化,從而定位潛在的設備故障。這些潛在故障的資源
ceph之PG邏輯概念
分布 mon scrub 一個 osd 糾錯 cluster 不能 匯報 一、ceph分存式存儲 rados:可靠的,自動的,分布式,對象存儲 特性:高效性,統一性(文件存儲,塊存儲,對象存儲),可擴展 cluster map pool(池): 1、pg
ceph之openstack存儲解決方案學習路線
分布式存儲 ceph ceph分布式存儲搭建經歷http://strongit.blog.51cto.com/10020534/1739488 Ceph作為OpenStack後端存儲http://linuxnote.blog.51cto.com/9876511/1789924eph常用
Openstack 之 kolla 部署ceph
數據 toolbar 單獨使用 tool local 如果 fault 使用 bin 如果首次安裝沒有使用ceph作為存儲,同樣也可以重新部署為存儲使用ceph,註意,在本例中,重新部署後,所有的後端存儲都使用ceph,包括虛擬機文件、cinder、glance、對
Openstack 之 ceph更換故障磁盤
ceph osd 更換 在實際生產使用過程中,難免會有ceph的osd硬盤損壞的時候,本文針對這種場景描述更換故障磁盤的操作,本文的操作環境是通過kolla部署的openstack,3個HA節點上各有3個osd,我們將osd.6 、osd.7 、osd.8 剔除並更換。1、首先查看和收集相關的信息:
Ceph 之 塊設備、文件系統、對象存儲的使用
ceph 塊設備/對象存儲/文件系統 上面左邊是我的個人微信,如需進一步溝通,請加微信。 右邊是我的公眾號“Openstack私有雲”,如有興趣,請關註。 繼上篇《Ceph 之 使用ceph-deploy部署ceph集群》,ceph集群搭建完成之後,接下來就是使用了,ceph集群可以提供給塊設備、文