1. 程式人生 > >通過iscsi協議使用ceph rbd

通過iscsi協議使用ceph rbd

ceph很早就已經支援通過iscsi協議來使用rbd,這篇博文對此做下演示,並且使用OSD Server作為iscsi target端。

一、OSD Server side

1、安裝支援rbd的TGT軟體包

#echo "deb http://ceph.com/packages/ceph-extras/debian $(lsb_release -sc) main" | sudo tee /etc/apt/sources.list.d/ceph-extras.list
#apt-get install tgt
2、安裝完成後確認tgt支援rbd
# tgtadm --lld iscsi --op show --mode system | grep rbd
    rbd (bsoflags sync:direct)
3、建立一個image(示例中pool名稱叫做iscsipool,image叫做iamge1)
#rbd create iscsipool/image1 --size 10240 --image-format 2
4、在tgt服務中註冊剛才建立好的image,只需要將下面的內容新增到/etc/tgt/targets.conf 或者 etc/tgt/conf.d/ceph.conf中即可。
<target iqn.2014-04.rbdstore.example.com:iscsi>
    driver iscsi
    bs-type rbd
    backing-store iscsipool/image1  # Format is <iscsi-pool>/<iscsi-rbd-image>
    initiator-address 10.10.2.49    #client address allowed to map the address
</target>
5、重啟或者過載tgt服務
#service tgt reload
or
#service tgt restart
6、關閉rbd cache,否則可能導致資料丟失或者損壞
vim /etc/ceph/ceph.conf
[client]
rbd_cache = false
二、Client side

1、安裝open-scsi

#apt-get install open-iscsi
2、啟動open-scsi服務
# service open-iscsi restart
 * Unmounting iscsi-backed filesystems                                                                                                    [ OK ] 
 * Disconnecting iSCSI targets                                                                                                            [ OK ] 
 * Stopping iSCSI initiator service                                                                                                       [ OK ] 
 * Starting iSCSI initiator service iscsid                                                                                                [ OK ] 
 * Setting up iSCSI targets                                                                                                                      
iscsiadm: No records found
                                                                                                                                          [ OK ]
 * Mounting network filesystems 
3、發現目標裝置
# iscsiadm -m discovery -t st -p 10.10.2.50
10.10.2.50:3260,1 iqn.2014-04.rbdstore.example.com:iscsi
4、掛載目標裝置
#  iscsiadm -m node --login
Logging in to [iface: default, target: iqn.2014-04.rbdstore.example.com:iscsi, portal: 10.10.2.50,3260] (multiple)
Login to [iface: default, target: iqn.2014-04.rbdstore.example.com:iscsi, portal: 10.10.2.50,3260] successful.
5、確認裝置已經掛載(示例中sda就是iscsdi裝置)
[email protected]:~# lsblk 
NAME                  MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                     8:0    0    10G  0 disk 
vda                   253:0    0    24G  0 disk 
?..vda1                253:1    0   190M  0 part /boot
?..vda2                253:2    0     1K  0 part 
?..vda5                253:5    0  23.8G  0 part 
  ?..linux-swap (dm-0) 252:0    0   3.8G  0 lvm  [SWAP]
  ?..linux-root (dm-1) 252:1    0    20G  0 lvm  /


相關推薦

通過iscsi協議使用ceph rbd

ceph很早就已經支援通過iscsi協議來使用rbd,這篇博文對此做下演示,並且使用OSD Server作為iscsi target端。 一、OSD Server side 1、安裝支援rbd的TGT軟體包 #echo "deb http://ceph.com/packa

Linux工作站通過iSCSI協議訪問Windows Server

Linux工作站通過iSCSI協議訪問Windows Server 崔炳華 1       環境準備 1.1     Server Windows Storage Server是 Windows Server 系列中的儲存伺服器版本,是企業級的檔案伺服器平臺,兩者均可作為

iscsi協議使用ceph rbd

1、安裝open-scsi [email protected]:~# apt-get install open-iscsi 2. 啟動open-scsi服務 [email protected]:~# service open-iscsi restart 3. 發現ISCSI target裝

如何將TS源流重新封裝並通過P2P協議傳輸在安卓終端和蘋果終端播放

ts p2p 直播 什麽是TS流TS流(TransportStream)即在MPEG-2系統中,由視頻,音頻的ES流和輔助數據復接生成的用於實際傳輸的標準信息流稱為MPEG-2傳送流。根據傳輸媒體的質量不同,MPEG-2中定義了兩種復合信息流:傳送流(TS)和節目流(PS:ProgramStrea

【物聯網雲端對接-4】通過MQTT協議與百度雲進行雲端通信

src 發布 訂閱 操作 websocket 編寫 通用 頁面 開發 百度雲的天工物聯網服務目前包括:物接入、物解析、物管理、時序數據庫和規則引擎等5大部分,本篇文章僅介紹物接入。 天工物聯網的物接入,從開發者的角度來說相對有些復雜,需要多步操作才能實現一個雲設備的創建,

vnx通過iscsi連接esxi主機,並掛載nfs和block

iscsi vm主要步驟:1) vnx上創建一個nas folder,這個nas裏面有一個放了一個vm文件夾2) esxi上掛載nfs3) vnx上創建block pool與lun4) vnx上設置iscsi連接-> 設置iscsi的port以及連接vcenter5)venter上設置iscsi連接-&

瀏覽器通過http協議通過nginx訪問ftp服務器上的文件

es2017 協議 alt com 默認目錄 blog nginx nbsp 訪問 1、修改nginx配置文件 2、修改nginx默認目錄為ftp默認目錄 3、修改成自定義路徑後,並修改此目錄第一行,修改為root或是nginx用戶 4、重新加載 cd /usr/lo

Cisco PT模擬實驗(20) 通過TFTP協議備份、恢復配置或系統升級

tftp協議 cisco 配置備份恢復 Cisco PT模擬實驗(20) 通過TFTP協議備份、恢復配置或系統升級實驗目的: 掌握TFTP方式備份、恢復配置文件的基本命令 掌握TFTP上傳IOS文件並升級系統的方法 熟悉TFTP協議文件傳輸的原理實驗背景

kubernetes掛載ceph rbd和cephfs的方法

tor dwr fst policy 使用 cap common k8s == [toc] k8s掛載Ceph RBD k8s掛載Ceph RBD有兩種方式,一種是傳統的PV&PVC的方式,也就是說需要管理員先預先創建好相關PV和PVC,然後對應的deploymen

rancher2 掛載ceph-rbd

使用 base64 star secret tor png monitor yml 加密 一-創建ceph-secret.yml文件 RBD的KEY查看 ceph auth list 復制 client.admin 的key 並使用base64加密 創建cep

KVM+ceph-RBD 快照創建問題

ceph-RBD+KVM 快照創建失敗KVM+ceph-RBD 快照創建問題 環境描述ceph集群,Luminous 12.2.5版本;執行操作1.劃分存儲池cloud,指定存儲池rbd模式,創建映像bak-image;2.KVM宿主機,創建虛擬機centos7,修改配置文件通過ceph官網文檔介紹libvi

ceph-rbd kvm 刪除數據後集群空間不釋放

fst images 參考 虛擬機 存儲池 str 解決 有效 .com 環境描述ceph版本:luminous 12.2.5OSD三節點,monitor三節點,同時運行在三臺物理服務器;KVM宿主機運行多臺虛擬機,其中一臺掛載ceph-rbd塊存儲; KVM調用ceph-

ceph rbd 入門

ice dev alt 查看 pre ima 對象 一個 sta 1.一個現成的ceph cluster 參考之前寫的ceph-deploy 部署ceph cluster 2.配置client與ceph cluster對接 在ceph cluster的管理節點上安裝

通過libvirt使用ceph塊設備

spa mar ron mon virsh ceph protoc log image 1. 創建存儲池[root@ceph1 ~]# ceph osd pool create libvirt-pool 128 128查看剛剛創建的存儲池:[root@ceph1 ~

ceph(2)--Ceph RBD 接口和工具

test length rem handle qemu-kvm 源文件 經典 ise ets 本系列文章會深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安裝和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和邏輯結構 (4)Cep

客戶端通過iscsi使用glusterfs

http://www.tuicool.com/articles/RNnyYb http://www.cnblogs.com/mchina/p/centos-iscsi-network-storage.html CentOS 6.3下配置iSCSI網路儲存 http://dngood.bl

iSCSI協議簡介

本文綜合了幾篇參考文獻的內容,做了刪減與重組,但嚴格來說,不算原創。 筆者筆記如下: iSCSI initiator和target的核心功能都在核心中,無須人工干預;而要人工干預的大約是這麼幾件事:  1. 建立iSCSI Initiator到iSCSI target的se

Spring MVC通過CROS協議解決跨域問題(轉載)

Spring MVC通過CROS協議解決跨域問題 (轉載) 現在接手學校網路中心的一個專案,根據團隊成員的實際情況以及開發需要,老師希望做到前後端完全分離。後臺使用java提供restful API 作為核心,前臺

通過redis協議構建髒字過濾微服務

下載 https://github.com/jonnywang/... 安裝使用 mkdir -p /data/server/wordsFilter cd /data/server/wordsFilter wget -O goRedisWordsFilter-v0.0.1.tar.gz http

python :通過udp協議實現客戶端與服務端的互動

(1)服務端 建立socket 繫結目的ip和埠號、 資料互動 import socket udpSer = socket.socket(socket.AF_INET,socket.SOCK_DGRAM) #這裡的SOCK_DGRAM 為udp流 udpSe