1. 程式人生 > >ceph儲存擴容(新盤新建儲存池)

ceph儲存擴容(新盤新建儲存池)

1、換上新盤後先使用命令做raid

2、ceph建立新儲存池(注:需要在儲存安裝完成後操作)

2.1修改/etc/ceph/ceph檢視是否關閉自動生成crushmap

若已經關閉,則無需其他操作;

若沒有關閉,關閉後需重啟ceph的服務使其生效

[[email protected] ~]# systemctl restart ceph.target

2.2新建目錄擴區當前叢集應用的crushmap

[[email protected] ~]# mkdir /root/cluster/

[[email protected] ~]# cd /root/cluster/

[

[email protected] cluster]# ceph osd getcrushmap -o crush.map

2.3反編譯crush.map,並另存為為crush1.map

[[email protected] cluster]# crushtool -d crush.map -o crush1.map

2.4vim編輯crush1.map,新建儲存池(建一個空池)

編輯新建桶的資訊:host——rack——room——datacenter——root(建桶時不加碟符)

編輯rule規則

2.5編譯crush1.map,另存為crush2.map

[[email protected] cluster]# crushtool -c crush1.map -o crush2.map

2.6將crush2.map應用到叢集中

[[email protected] cluster]# ceph osd setcrushmap -i crush2.map

3、新建ceph儲存池

[[email protected] cluster]# ceph osd pool create poolname pg_num

[[email protected] cluster]# ceph osd pool set poolname crush_ruleset 2(要和crushmap裡一致)

注:poolname:自定義儲存池名稱;

pg_num取值如下:

或者通過[[email protected] cluster]# ceph osd dump | grep size來進行參考

4.配置cinder多後端儲存(注:需要在平臺部署完成後操作)(在控制節點配置)

4.1修改 /etc/cinder/cinder.conf配置檔案,

[[email protected] cluster]# vi /etc/cinder/cinder.conf

新增新儲存池型別,此處以saspool為例;

新增新儲存池欄位,以saspool為例

4.2重啟cinder服務

[[email protected] cluster]# systemctl restart openstack-cinder-*

5、建立新儲存saspool的cinder卷型別

[[email protected] cluster]# cinder type-create saspool

6、檢視是否建立成功

7、建立成功後設置卷型別的key鍵值

[[email protected] cluster]# cinder type-key saspool或id set volume_backend_name=saspool

8、再次重啟cinder服務

[[email protected] cluster]# systemctl restart openstack-cinder-*

9、檢視是否設定成功

至此ceph建立新儲存池已經與cinder繫結多後端以完成,接下在就是新增新的osd至ceph叢集中

***************************************************************************************************************

10、現在新osd所在節點lsblk檢視碟符

11、使用ceph-disk zap 初始化已經識別的硬碟(都要初始化)

12、使用ceph-disk prepare對初始化過的硬碟做預處理

13、預處理完成後lsblk檢查是否以掛載

14、使用ceph-disk activate對預處理過的硬碟做啟用處理

[[email protected] ~]# ceph-disk activate /dev/sdh

15、檢查ceph叢集狀態以及osd情況

16、獲取當前叢集應用的crushmap,並另存為crush.map

[[email protected] cluster]# ceph osd getcrushmap -o crush.map

17、反編譯crush.map,並另存為crush1.map

[[email protected] cluster]# crushtool -d crush.map -o crush1.map

2.4vim編輯crush1.map,新建儲存池

此時進行新增裝置,修改權重值等資訊;

18、編譯crush1.map,另存為crush2.map

[[email protected] cluster]# crushtool -c crush1.map -o crush2.map

19、將crush2.map應用到叢集中

[[email protected] cluster]# ceph osd setcrushmap -i crush2.map

20、檢查叢集狀態以及osd情況

21、前往平臺測試即可

******************************************************************************************************************