ceph儲存擴容(新盤新建儲存池)
1、換上新盤後先使用命令做raid
2、ceph建立新儲存池(注:需要在儲存安裝完成後操作)
2.1修改/etc/ceph/ceph檢視是否關閉自動生成crushmap
若已經關閉,則無需其他操作;
若沒有關閉,關閉後需重啟ceph的服務使其生效
[[email protected] ~]# systemctl restart ceph.target
2.2新建目錄擴區當前叢集應用的crushmap
[[email protected] ~]# mkdir /root/cluster/
[[email protected] ~]# cd /root/cluster/
[
2.3反編譯crush.map,並另存為為crush1.map
[[email protected] cluster]# crushtool -d crush.map -o crush1.map
2.4vim編輯crush1.map,新建儲存池(建一個空池)
編輯新建桶的資訊:host——rack——room——datacenter——root(建桶時不加碟符)
編輯rule規則
2.5編譯crush1.map,另存為crush2.map
[[email protected] cluster]# crushtool -c crush1.map -o crush2.map
2.6將crush2.map應用到叢集中
[[email protected] cluster]# ceph osd setcrushmap -i crush2.map
3、新建ceph儲存池
[[email protected] cluster]# ceph osd pool create poolname pg_num
[[email protected] cluster]# ceph osd pool set poolname crush_ruleset 2(要和crushmap裡一致)
注:poolname:自定義儲存池名稱;
pg_num取值如下:
或者通過[[email protected] cluster]# ceph osd dump | grep size來進行參考
4.配置cinder多後端儲存(注:需要在平臺部署完成後操作)(在控制節點配置)
4.1修改 /etc/cinder/cinder.conf配置檔案,
[[email protected] cluster]# vi /etc/cinder/cinder.conf
新增新儲存池型別,此處以saspool為例;
新增新儲存池欄位,以saspool為例
4.2重啟cinder服務
[[email protected] cluster]# systemctl restart openstack-cinder-*
5、建立新儲存saspool的cinder卷型別
[[email protected] cluster]# cinder type-create saspool
6、檢視是否建立成功
7、建立成功後設置卷型別的key鍵值
[[email protected] cluster]# cinder type-key saspool或id set volume_backend_name=saspool
8、再次重啟cinder服務
[[email protected] cluster]# systemctl restart openstack-cinder-*
9、檢視是否設定成功
至此ceph建立新儲存池已經與cinder繫結多後端以完成,接下在就是新增新的osd至ceph叢集中
***************************************************************************************************************
10、現在新osd所在節點lsblk檢視碟符
11、使用ceph-disk zap 初始化已經識別的硬碟(都要初始化)
12、使用ceph-disk prepare對初始化過的硬碟做預處理
13、預處理完成後lsblk檢查是否以掛載
14、使用ceph-disk activate對預處理過的硬碟做啟用處理
[[email protected] ~]# ceph-disk activate /dev/sdh
15、檢查ceph叢集狀態以及osd情況
16、獲取當前叢集應用的crushmap,並另存為crush.map
[[email protected] cluster]# ceph osd getcrushmap -o crush.map
17、反編譯crush.map,並另存為crush1.map
[[email protected] cluster]# crushtool -d crush.map -o crush1.map
2.4vim編輯crush1.map,新建儲存池
此時進行新增裝置,修改權重值等資訊;
18、編譯crush1.map,另存為crush2.map
[[email protected] cluster]# crushtool -c crush1.map -o crush2.map
19、將crush2.map應用到叢集中
[[email protected] cluster]# ceph osd setcrushmap -i crush2.map
20、檢查叢集狀態以及osd情況
21、前往平臺測試即可
******************************************************************************************************************