您好,登錄后才能下訂單哦!
這篇文章主要為大家展示了“ceph集群中如何添加刪除OSD”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“ceph集群中如何添加刪除OSD”這篇文章吧。
關于Ceph OSD添加操作步驟如下:
1、創建一個OSD,即:#ceph osd create [uuid] #若沒有uuid參數,則該命令自動生成一個uuid。該命令產生一個新的osd-number。
2、為新的OSD創建默認的工作目錄,即:#mkdir -p /var/lib/ceph/osd/ceph-{osd-number}
3、為新的OSD準備一塊磁盤。
#mkfs.xfs -f /dev/vde
#mount /dev/vde /var/lib/ceph/osd/ceph-{osd-number}
4、初始化新的OSD工作目錄。
#ceph-osd -i {osd-number} --mkfs --mkkey
注意:在執行上述命令前要求新的OSD工作目錄必須為空;
5、注冊新的OSD認證密鑰。
#ceph auth add osd.{osd-number} osd 'allow *' mon 'allow rwx' -i /var/lib/ceph/osd/ceph-{osd-number}/keyring
6、將新的OSD添加到Crush Map中。
#ceph osd crush add osd.{osd-number} {weight} [{bucketype}={bucket-name}......}
此步驟也可以添加buckets后再添加osd,即:
#ceph osd crush add-bucket node5 host #創建一個名字為node5的bucket
#ceph osd crush move node5 root=default #將創建出來的bucket放到root下
#ceph osd crush create-or-move osd.{osd-number} 1.0 root=default host=node5 #將新的OSD添加到node5下
7、將新的OSD信息填寫到ceph.conf中,即:
[osd.{osd-number}]
host = {hostname}
devs = /dev/vde
8、啟動新的OSD。即:
#/etc/init.d/ceph start osd.{osd-number}
此時通過集群狀態查看命令#ceph -s可以看到OSD數量以及up和in的數量都發生了變化,此時再通過命令#ceph -w可以看到ceph經過peering狀態后,最終達到active+clean狀態;
關于Ceph OSD刪除操作步驟如下:
1、將需要刪除的OSD在集群中的狀態修改為out狀態(之前在集群中是up+in的狀態):#ceph osd out osd.3。此時待刪除的OSD仍然在集群中運行著,通過集群狀態查看命令#ceph -s可以看到當前集群的in的數量比up的數量少一個,少的這一個就是剛才out出去的那個OSD,即:osd.3。
2、停止剛剛out出去的OSD進程:#/etc/init.d/ceph stop osd.3。此時通過集群狀態查看命令#ceph -s可以看到當前集群的in和up的數量是一樣的,比之前減少了一個。通過ps ax | grep "ceph"也可以在系統中查看到運行的ceph-osd少了一個。
3、將刪除的OSD從crush map中刪除:
#ceph osd crush remove osd.3 #刪除指定的OSD
#ceph osd crush remove node6 #刪除OSD所在的bucket(此步驟可以不做)
4、清除到OSD的認證密鑰。
#ceph auth del osd.3
5、在OSD Map中清除OSD。
#ceph osd rm 3
此時通過ceph集群狀態查看命令#ceph -s可以看到此時的osd總數已經是正確的了;
6、從ceph.conf中清除OSD
[osd.3]
host = {hostname}
以上是“ceph集群中如何添加刪除OSD”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。