iscsi協議使用ceph rbd
[email protected]:~# apt-get install open-iscsi
2. 啟動open-scsi服務
[email protected]:~# service open-iscsi restart
3. 發現ISCSI target裝置
[email protected]:~# iscsiadm -m discovery -t st -p 10.128.3.22
10.128.3.22:3260,1 iqn.2016-03.rbdstore.example.com:iscsi
4. 接入target裝置
[email protected]
Logging in to [iface: default, target: iqn.2016-03.rbdstore.example.com:iscsi, portal: 10.128.3.22,3260]
Login to [iface: default, target: iqn.2016-03.rbdstore.example.com:iscsi, portal: 10.128.3.22,3260]: successful
5. 確認target裝置已經接入(示例中sdc就是iscsi裝置)
[email protected]
major minor #blocks name
11 0 882472 sr0
2 0 4 fd0
8 0 16777216 sda
8 1 15727616 sda1
8 2 1 sda2
8 5 1046528 sda5
8 16 16777216 sdb
252 0 1046528 dm-0
8 32 1048576 sdc
[email protected]:~#
[email protected]:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
fd0 2:0 1 4K 0 disk
sda 8:0 0 16G 0 disk
├─sda1 8:1 0 15G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 1022M 0 part
└─cryptswap1 (dm-0) 252:0 0 1022M 0 crypt [SWAP]
sdb 8:16 0 16G 0 disk
sdc 8:32 0 1G 0 disk
sr0 11:0 1 861.8M 0 rom
6. 掛載接入的target裝置使用
[email protected]:~# mkfs.xfs /dev/sdc -f
meta-data=/dev/sdc isize=256 agcount=8, agsize=32768 blks
= sectsz=512 attr=2, projid32bit=0
data = bsize=4096 blocks=262144, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0
log =internal log bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[email protected]:~# mount /dev/sdc /mnt/
[email protected]:~# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 15G 1.6G 13G 12% /
udev 484M 4.0K 484M 1% /dev
tmpfs 100M 388K 99M 1% /run
none 5.0M 0 5.0M 0% /run/lock
none 497M 0 497M 0% /run/shm
/dev/sdc 1014M 33M 982M 4% /mnt
相關推薦
iscsi協議使用ceph rbd
1、安裝open-scsi [email protected]:~# apt-get install open-iscsi 2. 啟動open-scsi服務 [email protected]:~# service open-iscsi restart 3. 發現ISCSI target裝
通過iscsi協議使用ceph rbd
ceph很早就已經支援通過iscsi協議來使用rbd,這篇博文對此做下演示,並且使用OSD Server作為iscsi target端。 一、OSD Server side 1、安裝支援rbd的TGT軟體包 #echo "deb http://ceph.com/packa
kubernetes掛載ceph rbd和cephfs的方法
tor dwr fst policy 使用 cap common k8s == [toc] k8s掛載Ceph RBD k8s掛載Ceph RBD有兩種方式,一種是傳統的PV&PVC的方式,也就是說需要管理員先預先創建好相關PV和PVC,然後對應的deploymen
rancher2 掛載ceph-rbd
使用 base64 star secret tor png monitor yml 加密 一-創建ceph-secret.yml文件 RBD的KEY查看 ceph auth list 復制 client.admin 的key 並使用base64加密 創建cep
KVM+ceph-RBD 快照創建問題
ceph-RBD+KVM 快照創建失敗KVM+ceph-RBD 快照創建問題 環境描述ceph集群,Luminous 12.2.5版本;執行操作1.劃分存儲池cloud,指定存儲池rbd模式,創建映像bak-image;2.KVM宿主機,創建虛擬機centos7,修改配置文件通過ceph官網文檔介紹libvi
ceph-rbd kvm 刪除數據後集群空間不釋放
fst images 參考 虛擬機 存儲池 str 解決 有效 .com 環境描述ceph版本:luminous 12.2.5OSD三節點,monitor三節點,同時運行在三臺物理服務器;KVM宿主機運行多臺虛擬機,其中一臺掛載ceph-rbd塊存儲; KVM調用ceph-
ceph rbd 入門
ice dev alt 查看 pre ima 對象 一個 sta 1.一個現成的ceph cluster 參考之前寫的ceph-deploy 部署ceph cluster 2.配置client與ceph cluster對接 在ceph cluster的管理節點上安裝
ceph(2)--Ceph RBD 接口和工具
test length rem handle qemu-kvm 源文件 經典 ise ets 本系列文章會深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安裝和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和邏輯結構 (4)Cep
iSCSI協議簡介
本文綜合了幾篇參考文獻的內容,做了刪減與重組,但嚴格來說,不算原創。 筆者筆記如下: iSCSI initiator和target的核心功能都在核心中,無須人工干預;而要人工干預的大約是這麼幾件事: 1. 建立iSCSI Initiator到iSCSI target的se
大話Ceph--RBD那點事兒
引言 這篇文章主要介紹了RBD在Ceph底層的儲存方式,解釋了RBD的實際佔用容量和RBD大小的關係,用幾個檔案的例子演示了檔案在RBD(更恰當的是xfs)中的儲存位置,最後組裝了一個RBD,給出了一些FAQ。 RBD是什麼 RBD : Ceph’s RADOS Bl
初試 Kubernetes 叢集使用 Ceph RBD 塊儲存
目錄 Kubernetes PersistentVolumes 介紹 環境、軟體準備 單節點使用 Ceph RBD Kubernetes PV & PVC 方式使用 Ceph RBD 測試單節點以及多節點使用 Ceph RBD 1、Kube
rexray docker ceph-rbd 實現無狀態資料庫docker容器實戰
1.前提條件 1.1有了一個可用的ceph 叢集 其中mon1節點的IP 10.20.4.1 1.2 有2臺虛擬機器可以用於驗證測試,虛擬機器能上網,DNS設定正常。 關於如何建立ceph叢集,請參考文章:https://blog.csdn.net/happyfreeangel/arti
在Devstack中使能Cinder的Ceph RBD driver
假設已經有了一個DevStack和一個Ceph叢集,如何使DevStack上的Cinder能用上Ceph作為其儲存後端呢? 以下步驟如未做特殊說明,都是在DevStack虛機上操作。 1. 使該DevStack VM變成一個Ceph client 1.1 安裝 ceph-comm
Ceph rbd image
Ceph的rbd image可以用來作為OpenStack的塊儲存,如果OpenStack配置Cinder儲存後端為Ceph,實際上讀寫的就是Ceph的塊儲存裝置,這裡記錄如何檢視rbd image裡的資料,以及資料存放在哪裡。 首先來建立一個rbd imag
ceph rbd 常用命令
1.rbd ls 檢視ceph預設資源池rbd裡面的映象 2.rbd info xxx.img 檢視xxx.img的具體的具體資訊 3.rbd rm xxx.img 刪除xxx.i
Cephfs & Ceph RBD 在k8s中的適用場景討論及資料庫效能壓測
前言 測試發現cephfs的小檔案讀寫效能一般,且寫入延遲偏高,效能不甚滿意,但是滿足於日常應用環境的讀寫是沒有問題的,但是在面對資料庫的應用場景,是否能滿足效能要求呢?本篇主要結合kubernetes,針對資料庫應用場景,對cephfs 和 ceph rbd
kubernets使用ceph-rbd作為storageclass並建立pvc和應用
1.Kubernetes StorageClass 介紹 Kubernetes 叢集儲存 PV 支援 Static 靜態配置以及 Dynamic 動態配置,動態卷配置 (Dynamic provisioning) 可以根據需要動態的建立儲存卷。靜態配置方式,叢
FC協議與iSCSI協議詳解
1.SAN說明 SAN(Storage Area Network,儲存區域網絡)的誕生,使儲存空間得到更加充分的利用以及安裝和管理更加有效。SAN是一種將儲存裝置、連線裝置和介面整合在一個高速網路中的技術。SAN本身就是一個儲存網路,承擔了資料儲存任務,SAN
iSCSI 協議
iSCSI協議結構 如同任何一個協議一樣,iSCSI也有一個清晰的層次結構,根據OSI模型,iSCSI的協議棧自頂向下一共可以分為五層,如圖所示: SCSI層:根據應用發出的請求建立SCSI CDB(命令描述塊),並傳給iSCSI層;同時接受來自iSCSI層的CDB,並嚮應用返回資料。 .iSC
Ceph RBD CephFS 儲存
Ceph RBD CephFS 儲存 環境準備: (這裡只做基礎測試, ceph-manager , ceph-mon, ceph-osd 一共三臺) 10.6.0.140 = ceph-manager 10.6.0.187 = ceph-mon-1 10.6.0.188 = ceph-osd-1