1. 程式人生 > >iscsi協議使用ceph rbd

iscsi協議使用ceph rbd

1、安裝open-scsi
[email protected]:~# apt-get install open-iscsi


2. 啟動open-scsi服務
[email protected]:~# service open-iscsi restart


3. 發現ISCSI target裝置
[email protected]:~# iscsiadm -m discovery -t st -p 10.128.3.22
10.128.3.22:3260,1 iqn.2016-03.rbdstore.example.com:iscsi


4. 接入target裝置
[email protected]
:~# iscsiadm -m node -p 10.128.3.22 --login
Logging in to [iface: default, target: iqn.2016-03.rbdstore.example.com:iscsi, portal: 10.128.3.22,3260]
Login to [iface: default, target: iqn.2016-03.rbdstore.example.com:iscsi, portal: 10.128.3.22,3260]: successful


5. 確認target裝置已經接入(示例中sdc就是iscsi裝置)
[email protected]
:~# cat /proc/partitions 
major minor  #blocks  name


  11        0     882472 sr0
   2        0          4 fd0
   8        0   16777216 sda
   8        1   15727616 sda1
   8        2          1 sda2
   8        5    1046528 sda5
   8       16   16777216 sdb
 252        0    1046528 dm-0
   8       32    1048576 sdc
[email protected]
:~# 
[email protected]:~# 
[email protected]:~# lsblk 
NAME                  MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
fd0                     2:0    1     4K  0 disk  
sda                     8:0    0    16G  0 disk  
├─sda1                  8:1    0    15G  0 part  /
├─sda2                  8:2    0     1K  0 part  
└─sda5                  8:5    0  1022M  0 part  
  └─cryptswap1 (dm-0) 252:0    0  1022M  0 crypt [SWAP]
sdb                     8:16   0    16G  0 disk  
sdc                     8:32   0     1G  0 disk  
sr0                    11:0    1 861.8M  0 rom  


6. 掛載接入的target裝置使用
[email protected]:~# mkfs.xfs /dev/sdc -f
meta-data=/dev/sdc               isize=256    agcount=8, agsize=32768 blks
         =                       sectsz=512   attr=2, projid32bit=0
data     =                       bsize=4096   blocks=262144, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[email protected]:~# mount /dev/sdc /mnt/
[email protected]:~# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1        15G  1.6G   13G  12% /
udev            484M  4.0K  484M   1% /dev
tmpfs           100M  388K   99M   1% /run
none            5.0M     0  5.0M   0% /run/lock
none            497M     0  497M   0% /run/shm
/dev/sdc       1014M   33M  982M   4% /mnt


相關推薦

iscsi協議使用ceph rbd

1、安裝open-scsi [email protected]:~# apt-get install open-iscsi 2. 啟動open-scsi服務 [email protected]:~# service open-iscsi restart 3. 發現ISCSI target裝

通過iscsi協議使用ceph rbd

ceph很早就已經支援通過iscsi協議來使用rbd,這篇博文對此做下演示,並且使用OSD Server作為iscsi target端。 一、OSD Server side 1、安裝支援rbd的TGT軟體包 #echo "deb http://ceph.com/packa

kubernetes掛載ceph rbd和cephfs的方法

tor dwr fst policy 使用 cap common k8s == [toc] k8s掛載Ceph RBD k8s掛載Ceph RBD有兩種方式,一種是傳統的PV&PVC的方式,也就是說需要管理員先預先創建好相關PV和PVC,然後對應的deploymen

rancher2 掛載ceph-rbd

使用 base64 star secret tor png monitor yml 加密 一-創建ceph-secret.yml文件 RBD的KEY查看 ceph auth list 復制 client.admin 的key 並使用base64加密 創建cep

KVM+ceph-RBD 快照創建問題

ceph-RBD+KVM 快照創建失敗KVM+ceph-RBD 快照創建問題 環境描述ceph集群,Luminous 12.2.5版本;執行操作1.劃分存儲池cloud,指定存儲池rbd模式,創建映像bak-image;2.KVM宿主機,創建虛擬機centos7,修改配置文件通過ceph官網文檔介紹libvi

ceph-rbd kvm 刪除數據後集群空間不釋放

fst images 參考 虛擬機 存儲池 str 解決 有效 .com 環境描述ceph版本:luminous 12.2.5OSD三節點,monitor三節點,同時運行在三臺物理服務器;KVM宿主機運行多臺虛擬機,其中一臺掛載ceph-rbd塊存儲; KVM調用ceph-

ceph rbd 入門

ice dev alt 查看 pre ima 對象 一個 sta 1.一個現成的ceph cluster 參考之前寫的ceph-deploy 部署ceph cluster 2.配置client與ceph cluster對接 在ceph cluster的管理節點上安裝

ceph(2)--Ceph RBD 接口和工具

test length rem handle qemu-kvm 源文件 經典 ise ets 本系列文章會深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安裝和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和邏輯結構 (4)Cep

iSCSI協議簡介

本文綜合了幾篇參考文獻的內容,做了刪減與重組,但嚴格來說,不算原創。 筆者筆記如下: iSCSI initiator和target的核心功能都在核心中,無須人工干預;而要人工干預的大約是這麼幾件事:  1. 建立iSCSI Initiator到iSCSI target的se

大話Ceph--RBD那點事兒

引言 這篇文章主要介紹了RBD在Ceph底層的儲存方式,解釋了RBD的實際佔用容量和RBD大小的關係,用幾個檔案的例子演示了檔案在RBD(更恰當的是xfs)中的儲存位置,最後組裝了一個RBD,給出了一些FAQ。 RBD是什麼 RBD : Ceph’s RADOS Bl

初試 Kubernetes 叢集使用 Ceph RBD 塊儲存

目錄 Kubernetes PersistentVolumes 介紹 環境、軟體準備 單節點使用 Ceph RBD Kubernetes PV & PVC 方式使用 Ceph RBD 測試單節點以及多節點使用 Ceph RBD 1、Kube

rexray docker ceph-rbd 實現無狀態資料庫docker容器實戰

1.前提條件 1.1有了一個可用的ceph 叢集 其中mon1節點的IP 10.20.4.1 1.2 有2臺虛擬機器可以用於驗證測試,虛擬機器能上網,DNS設定正常。 關於如何建立ceph叢集,請參考文章:https://blog.csdn.net/happyfreeangel/arti

在Devstack中使能Cinder的Ceph RBD driver

假設已經有了一個DevStack和一個Ceph叢集,如何使DevStack上的Cinder能用上Ceph作為其儲存後端呢? 以下步驟如未做特殊說明,都是在DevStack虛機上操作。 1. 使該DevStack VM變成一個Ceph client 1.1 安裝 ceph-comm

Ceph rbd image

Ceph的rbd image可以用來作為OpenStack的塊儲存,如果OpenStack配置Cinder儲存後端為Ceph,實際上讀寫的就是Ceph的塊儲存裝置,這裡記錄如何檢視rbd image裡的資料,以及資料存放在哪裡。 首先來建立一個rbd imag

ceph rbd 常用命令

1.rbd   ls   檢視ceph預設資源池rbd裡面的映象 2.rbd info xxx.img  檢視xxx.img的具體的具體資訊 3.rbd rm xxx.img  刪除xxx.i

Cephfs & Ceph RBD 在k8s中的適用場景討論及資料庫效能壓測

前言 測試發現cephfs的小檔案讀寫效能一般,且寫入延遲偏高,效能不甚滿意,但是滿足於日常應用環境的讀寫是沒有問題的,但是在面對資料庫的應用場景,是否能滿足效能要求呢?本篇主要結合kubernetes,針對資料庫應用場景,對cephfs 和 ceph rbd

kubernets使用ceph-rbd作為storageclass並建立pvc和應用

1.Kubernetes StorageClass 介紹 Kubernetes 叢集儲存 PV 支援 Static 靜態配置以及 Dynamic 動態配置,動態卷配置 (Dynamic provisioning) 可以根據需要動態的建立儲存卷。靜態配置方式,叢

FC協議iSCSI協議詳解

 1.SAN說明      SAN(Storage Area Network,儲存區域網絡)的誕生,使儲存空間得到更加充分的利用以及安裝和管理更加有效。SAN是一種將儲存裝置、連線裝置和介面整合在一個高速網路中的技術。SAN本身就是一個儲存網路,承擔了資料儲存任務,SAN

iSCSI 協議

iSCSI協議結構 如同任何一個協議一樣,iSCSI也有一個清晰的層次結構,根據OSI模型,iSCSI的協議棧自頂向下一共可以分為五層,如圖所示: SCSI層:根據應用發出的請求建立SCSI CDB(命令描述塊),並傳給iSCSI層;同時接受來自iSCSI層的CDB,並嚮應用返回資料。 .iSC

Ceph RBD CephFS 儲存

Ceph RBD  CephFS 儲存 環境準備: (這裡只做基礎測試, ceph-manager , ceph-mon, ceph-osd 一共三臺) 10.6.0.140 = ceph-manager 10.6.0.187 = ceph-mon-1 10.6.0.188 = ceph-osd-1