1. 程式人生 > >CEPH Ubuntu14.04 叢集刪除 OSD 節點

CEPH Ubuntu14.04 叢集刪除 OSD 節點

[問題] 刪除 ceph-node1 上的 osd.4 節點的方法?
[解答] 一般步驟是將 osd.4 標記為out, 停止 osd.4 對應的 OSD 服務
, 將 osd.4 從 cursh map中刪除,將 osd.4 對應 osd data 和 osd journal銷燬
[email protected]:~/my-cluster$ ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.07149 root default
-2 0.02859 host ceph-node2
0 0.01430 osd.0 down 0 1.00000
2 0.01430 osd.2 up 1.00000 1.00000
-3 0.01430 host ceph-node3
1 0.01430 osd.1 down 0 1.00000
-4 0.01430 host ceph-node1
4 0.01430 osd.4 up 1.00000 1.00000
-5 0.01430 host ceph-client-node
3 0.01430 osd.3 up 1.00000 1.00000

[email protected]:~/my-cluster$ ssh ceph-node1
Welcome to Ubuntu 14.04.5 LTS (GNU/Linux 4.4.0-31-generic x86_64)

  • System information as of Sun Feb 26 11:28:25 CST 2017

    System load: 0.43 Processes: 115
    Usage of /: 47.6% of 14.64GB Users logged in: 0
    Memory usage: 26% IP address for eth0: 192.168.1.249
    Swap usage: 0%

New release ‘16.04.2 LTS’ available.
Run ‘do-release-upgrade’ to upgrade to it.

Last login: Sun Feb 26 11:28:25 2017

將 osd.4 設定為 out 狀態

ceph osd out osd.4

停止 ceph-node1 上的 osd.4 的服務程序

sudostopcephosdid=4cephosdstop/waiting ceph osd tree 檢視 osd.4 進入到 down 狀態。
[email protected]:~cep

hosdtreeIDWEIGHTTYPENAMEUP/DOWNREWEIGHTPRIMARYAFFINITY10.04289rootdefault20.01430hostcephnode220.01430osd.2up1.000001.0000030.01430hostcephnode330.01430osd.3up1.000001.0000040.01430hostcephnode140.01430osd.4down01.00000osd.4crushmapharvis@cephnode1: ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.02859 root default
-2 0.01430 host ceph-node2
2 0.01430 osd.2 up 1.00000 1.00000
-3 0.01430 host ceph-node3
3 0.01430 osd.3 up 1.00000 1.00000
-4 0 host ceph-node1
-5 0 host ceph-client-node
0 0 osd.0 down 0 1.00000
1 0 osd.1 down 0 1.00000
4 0 osd.4 down 0 1.00000

執行 auth 刪除命令

[email protected]:~cephauthdelosd.4updatedharvis@cephnode1: ceph osd rm 4
removed osd.4
刪除 osd.4 對應的儲存目錄(這通常是個軟連結)
sudo rm -fr /var/lib/ceph/osd/ceph-4
這裡對應的實際目錄是 /var/local/osd3/ 將它刪除掉 sudo rm -fr /var/local/osd3

如果 osd.4 對應的裝置,可以使用ceph-disk zap命令將裝置恢復到建立分割槽前的狀態(因為ceph-disk zap會刪除所有分割槽包括分割槽表)

[問題] heartbeat_map reset_timeout ‘OSD::osd_op_tp thread 0x7f104a89a700’ had timed out after 4
[解答]

相關推薦

CEPH Ubuntu14.04 叢集刪除 OSD 節點

[問題] 刪除 ceph-node1 上的 osd.4 節點的方法? [解答] 一般步驟是將 osd.4 標記為out, 停止 osd.4 對應的 OSD 服務 , 將 osd.4 從 cursh map中刪除,將 osd.4 對應 osd data 和

Ceph:添加新的OSD節點

quorum -s 管理 clu -o install -a rpm rep Ceph:添加新的OSD節點 一、Ceph新的OSD節點上的操作 1.1 配置ceph的yum源 cat /etc/yum.repos.d/ceph-aliyun.repo [ceph] name

新增/刪除osd節點步驟

新增osd節點node4: 1、ceph osd tree #檢視目前cluster 狀態 `df -h /mnt/ceph-vol1` #確保node1掛載了rbd, 在節點 node1上執行 2、在節點node4上安裝ceph ,並複製cep

ubuntu14.04徹底刪除nginx

http://blog.csdn.net/u010571844/article/details/50819704 1.先執行一下命令: 1.1 刪除nginx,–purge包括配置檔案 sudo apt-get --purge remove nginx11 1.2

Cloudera Manager安裝之利用parcels方式(線上或離線)安裝3或4節點叢集(包含最新穩定版本或指定版本的安裝)(新增服務)(Ubuntu14.04)(五)

  前期部落格   如果大家,在啟動的時候,比如遇到如下問題,則       明明已經授權了啊,怎麼被拒絕,納尼???     解決辦法    然後,再來這樣,就可以了。    注意,在此之前

Ubuntu14.04 CEPH 叢集搭建(一)

(備註:此一共用到4臺機器。分別命名為ceph-admin ,ceph0,ceph1,ceph2.其中ceph-admin作為deploy 機器用於部署,ceph-admin,ceph0作為mon,ceph1,作為OSD,ceph2作為元資料伺服器) 0.配置IP/主機名

ubuntu14.04 ceph分散式叢集搭建(二)

1.在ceph-admin機器上,執行 mkdir my-cluster cd my-cluster 建議:ceph-deploy 工具將輸出到當前目錄下的檔案。當執行ceph-deploy時,確保你在此目錄中。 重要:如果你是用不同的使用者登入的

Ceph刪除OSD

ntp require 5.6 bash swap req warn 信息 flags 1、查看OSD的分布信息:# ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMAR

Cephosd節點問題

osd節點影響整體性能背景ceph的整體讀寫性能下降 經查看 ceph osd perf 有一塊osd延遲較大在200多ms以上 決定剔除後 整體性能恢復 說明osd的一個節點問題有時會影響整體ceph的性能 ceph --admin-daemon /var/run/ceph/ceph-osd.135.aso

Linux叢集儲存——day4——Ceph分散式儲存搭建、OSD塊儲存、COW快照、RBD儲存映象

Ceph的專有名詞 OSDs 儲存裝置 Monitors 叢集監控元件 MDSs 存放檔案系統的元資料 部署Ceph分散式儲存  

動態的新增和刪除hadoop叢集中的節點

一:新增節點 A:新節點中新增賬戶,設定無密碼登陸 B:Name節點中設定到新節點的無密碼登陸 ssh-copy-id slave4 C:在Name節點slaves檔案中新增新節點 D:在所有節點/etc/hosts檔案中增加新節點(所有節點保持一致)

CDH5.16.1叢集增加新節點 Ubuntu 16.04上搭建CDH5.16.1叢集 Ubuntu 16.04上搭建CDH5.16.1叢集

如果是全新安裝叢集的話,可以參考《Ubuntu 16.04上搭建CDH5.16.1叢集》 下面是叢集新增節點步驟: 1.已經存在一個叢集,有兩個節點 192.168.100.19 hadoop-master 192.168.100.20 hadoop-slave1 新增節點ip為

關於Redis的cluster叢集刪除節點後再次新增節點

在cluster不小心刪除某個節點後再加入節點是個很麻煩的事(刪除之前先把cluster分配的hashslot給重新分配一下(很重要))通過 redis-trib.rb del-node 你的節點地址 bd5a40a6ddccbd46a0f4a2208eb25d2453c2a

redis叢集實現(三)叢集刪除節點

redis叢集裡的節點支援動態刪除,但是一般情況下不會這麼做,只有在節點軟硬體升級的時候才會主動讓節點下線。刪除節點的方式就是redis-cli客戶端連線到伺服器,然後執行cluster forget node-id就可以了,如果是刪除一個從節點的話,叢集仍然是可用狀態,如

ubuntu14.04 redis叢集部署

一、redis安裝 apt-get remove redis-server # 刪除舊版 apt-get autoremove sudo apt-get install -y python-software-properties sudo apt-get

redis3.x叢集-刪除叢集中的節點

1. 如果刪除的節點是主節點,那麼此節點中有雜湊槽,需要把刪除的節點中的雜湊槽轉移到其他節點中,執行下面命令,還是轉移雜湊槽的那個命令。1)先刪除從節點#  cd/usr/local/redis-3.2.9/src/# ./redis-trib.rb del-node 192

redis 叢集之動態新增redis節點刪除指定ID的redis節點,以及檢視redis叢集中各個節點的資訊

redis cluster配置好,並執行一段時間後,我們想新增節點,或者刪除節點,該怎麼辦呢。首先登陸上去redis叢集內任意一個節點的client端 如:/usr/local/redis303/bin/redis-cli -c -h 192.168.1.108 -p 7713 進行登陸 192.168.1

Redis叢集:主從節點新增和刪除

新增主節點 叢集建立成功後可以向叢集中新增節點,下面是新增一個master主節點  新增7007結點,參考叢集結點規劃章節新增一個“7007”目錄作為新節點。 執行下邊命令: ./redis-trib.rb add-node  19

基於ubuntu14.04的ambari安裝及叢集部署

第一節. Ambari簡介Ambari跟Hadoop等開源軟體一樣,也是Apache Software Foundation中的一個專案,並且是頂級專案。目前最新的釋出版本是2.4.1。就Ambari的作用來說,就是建立、管理、監視Hadoop的叢集,但是這裡的Hadoop是廣義,指的是Hadoop整個生態圈

ceph叢集單個osd超95%導致叢集無法讀寫叢集恢復過程

ceph新手,最近遇到的一個問題,已解決,請參考,文中有錯誤的話歡迎指正 故障描述 openstack環境中若干臺虛擬機器無法正常操作,嘗試從horizon中重啟虛擬機器,重啟過程中虛擬機器狀態一直停留在”powering on”的狀態,無法進入系統