kubernetes的ceph RBD volume(2): 使用Ceph RBD作為persistent volume
以下是使用ceph RBD作為persistent volume的例子:
A PersistentVolume
(PV) is a piece of networked storage in the cluster that has been provisioned by an administrator. It is a resource in the cluster just like a node is a cluster resource. PVs are volume plugins like
Volumes, but have a lifecycle independent of any individual pod that uses the PV. This API object captures the details of the implementation of the storage, be that NFS, iSCSI, or a cloud-provider-specific storage system.
A PersistentVolumeClaim
(PVC) is a request for storage by a user. It is similar to a pod. Pods consume node resources and PVCs consume PV resources. Pods can request specific levels of resources (CPU and Memory). Claims
can request specific size and access modes (e.g., can be mounted once read/write or many times read-only).
1. 先建立image在pool裡。
2. 建立 PV
[[email protected] kube]# cat pv_ceph.yaml
apiVersion: v1
kind: PersistentVolume
metadata:
name: ceph-pv
spec:
capacity:
storage: 50Gi
accessModes:
- ReadWriteOnce
rbd:
monitors:
- 10.0.200.11:6789
- 10.0.200.13:6789
- 10.0.200.14:6789
pool: kube
image: vol2
user: kube
secretRef:
name: ceph-secret
fsType: ext4
readOnly: false
persistentVolumeReclaimPolicy: Recycle
kubectl create -f pv_ceph.yaml
[[email protected] kube]# kubectl get pv
NAME CAPACITY ACCESSMODES RECLAIMPOLICY STATUS CLAIM REASON AGE
ceph-pv 50Gi RWO Recycle Bound default/ceph-claim 4d
pvc-ac668f99-3b8b-11e7-8af9-fa163e01317b 20Gi RWO Delete Bound default/ceph-claim-sc 4d
3. 建立pvc
[[email protected] kube]# cat pvc_ceph.yaml
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: ceph-claim
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 20Gi
note: pvc和pv是一一對應的,所以storage在這設20G沒用
kubectl create -f pvc_ceph.yaml
[[email protected] kube]# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESSMODES AGE
ceph-claim Bound ceph-pv 50Gi RWO 4d
4. 建立pod
[[email protected] kube]# cat frontend-pvc-controller.yaml
apiVersion: v1
kind: ReplicationController
metadata:
name: frontendpvc
labels:
name: frontendpvc
spec:
replicas: 1
selector:
name: frontendpvc
template:
metadata:
labels:
name: frontendpvc
spec:
containers:
- name: frontendpvc
image: kubeguide/guestbook-php-frontend
env:
- name: GET_HOSTS_FROM
value: env
ports:
- containerPort: 80
volumeMounts:
- mountPath: /mnt/rbd
name: ceph-vol
volumes:
- name: ceph-vol
persistentVolumeClaim:
claimName: ceph-claim
相關推薦
kubernetes的ceph RBD volume(2): 使用Ceph RBD作為persistent volume
以下是使用ceph RBD作為persistent volume的例子: A PersistentVolume (PV) is a piece of networked storage in the cluster that has been provisioned by
ceph(2)--Ceph RBD 接口和工具
test length rem handle qemu-kvm 源文件 經典 ise ets 本系列文章會深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安裝和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和邏輯結構 (4)Cep
kubernets使用ceph-rbd作為storageclass並建立pvc和應用
1.Kubernetes StorageClass 介紹 Kubernetes 叢集儲存 PV 支援 Static 靜態配置以及 Dynamic 動態配置,動態卷配置 (Dynamic provisioning) 可以根據需要動態的建立儲存卷。靜態配置方式,叢
kubernetes的ceph RBD volume(3): 動態volume的使用(ceph RBD)
我實驗了一下kubenetes的dynamic volume,基於ceph RDB. 以下是使用步驟: 1. 準備storageclass, 配置ceph rdb的資訊, ceph mon的ip, 使用者,密碼和ceph pool, 之前secret要生成。 storag
Ceph學習----Ceph rbd 作為裝置掛載到本地
CSDN 為我的同步更新部落格,部落格原地址:airheaven.cn Ceph作為塊儲存,有時候需要將其掛載到本地作為檔案系統使用,如果我們有這樣的需求,那麼我們應該如何操作呢? 1.在ceph叢集中建立image,作為磁碟檔案 [email protec
kubernetes掛載ceph rbd和cephfs的方法
tor dwr fst policy 使用 cap common k8s == [toc] k8s掛載Ceph RBD k8s掛載Ceph RBD有兩種方式,一種是傳統的PV&PVC的方式,也就是說需要管理員先預先創建好相關PV和PVC,然後對應的deploymen
rancher2 掛載ceph-rbd
使用 base64 star secret tor png monitor yml 加密 一-創建ceph-secret.yml文件 RBD的KEY查看 ceph auth list 復制 client.admin 的key 並使用base64加密 創建cep
KVM+ceph-RBD 快照創建問題
ceph-RBD+KVM 快照創建失敗KVM+ceph-RBD 快照創建問題 環境描述ceph集群,Luminous 12.2.5版本;執行操作1.劃分存儲池cloud,指定存儲池rbd模式,創建映像bak-image;2.KVM宿主機,創建虛擬機centos7,修改配置文件通過ceph官網文檔介紹libvi
ceph-rbd kvm 刪除數據後集群空間不釋放
fst images 參考 虛擬機 存儲池 str 解決 有效 .com 環境描述ceph版本:luminous 12.2.5OSD三節點,monitor三節點,同時運行在三臺物理服務器;KVM宿主機運行多臺虛擬機,其中一臺掛載ceph-rbd塊存儲; KVM調用ceph-
ceph rbd 入門
ice dev alt 查看 pre ima 對象 一個 sta 1.一個現成的ceph cluster 參考之前寫的ceph-deploy 部署ceph cluster 2.配置client與ceph cluster對接 在ceph cluster的管理節點上安裝
大話Ceph--RBD那點事兒
引言 這篇文章主要介紹了RBD在Ceph底層的儲存方式,解釋了RBD的實際佔用容量和RBD大小的關係,用幾個檔案的例子演示了檔案在RBD(更恰當的是xfs)中的儲存位置,最後組裝了一個RBD,給出了一些FAQ。 RBD是什麼 RBD : Ceph’s RADOS Bl
初試 Kubernetes 叢集使用 Ceph RBD 塊儲存
目錄 Kubernetes PersistentVolumes 介紹 環境、軟體準備 單節點使用 Ceph RBD Kubernetes PV & PVC 方式使用 Ceph RBD 測試單節點以及多節點使用 Ceph RBD 1、Kube
rexray docker ceph-rbd 實現無狀態資料庫docker容器實戰
1.前提條件 1.1有了一個可用的ceph 叢集 其中mon1節點的IP 10.20.4.1 1.2 有2臺虛擬機器可以用於驗證測試,虛擬機器能上網,DNS設定正常。 關於如何建立ceph叢集,請參考文章:https://blog.csdn.net/happyfreeangel/arti
在Devstack中使能Cinder的Ceph RBD driver
假設已經有了一個DevStack和一個Ceph叢集,如何使DevStack上的Cinder能用上Ceph作為其儲存後端呢? 以下步驟如未做特殊說明,都是在DevStack虛機上操作。 1. 使該DevStack VM變成一個Ceph client 1.1 安裝 ceph-comm
Ceph rbd image
Ceph的rbd image可以用來作為OpenStack的塊儲存,如果OpenStack配置Cinder儲存後端為Ceph,實際上讀寫的就是Ceph的塊儲存裝置,這裡記錄如何檢視rbd image裡的資料,以及資料存放在哪裡。 首先來建立一個rbd imag
ceph rbd 常用命令
1.rbd ls 檢視ceph預設資源池rbd裡面的映象 2.rbd info xxx.img 檢視xxx.img的具體的具體資訊 3.rbd rm xxx.img 刪除xxx.i
Cephfs & Ceph RBD 在k8s中的適用場景討論及資料庫效能壓測
前言 測試發現cephfs的小檔案讀寫效能一般,且寫入延遲偏高,效能不甚滿意,但是滿足於日常應用環境的讀寫是沒有問題的,但是在面對資料庫的應用場景,是否能滿足效能要求呢?本篇主要結合kubernetes,針對資料庫應用場景,對cephfs 和 ceph rbd
Ceph RBD CephFS 儲存
Ceph RBD CephFS 儲存 環境準備: (這裡只做基礎測試, ceph-manager , ceph-mon, ceph-osd 一共三臺) 10.6.0.140 = ceph-manager 10.6.0.187 = ceph-mon-1 10.6.0.188 = ceph-osd-1
iscsi協議使用ceph rbd
1、安裝open-scsi [email protected]:~# apt-get install open-iscsi 2. 啟動open-scsi服務 [email protected]:~# service open-iscsi restart 3. 發現ISCSI target裝
k8s(十二)、分散式儲存Ceph RBD使用
前言 Ceph儲存有三種儲存介面,分別是: 物件儲存 Ceph Object Gateway 塊裝置 RBD 檔案系統 CEPHFS Kubernetes支援後兩種儲存介面,支援的接入模式如下圖: 在本篇將測試使用ceph rbd作持久化儲存後端 RBD建立