本篇内容介绍了“分布式Ceph存储集群集的详细步骤”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
先上几张图展示下目前Ceph存储的大体情况,模拟更换服务器CLIENT3上数据硬盘,ceph存储设备已经有存放数据,观察更换过程及恢复变化。[root@client3 ~]# systemctl stop ceph-osd@2.service[root@client3 ~]# umount /var/lib/ceph/osd/ceph-2
[root@client3 ~]# ceph osd out osd.2[root@client3 ~]# ceph auth del osd.2[root@client3 ~]# ceph osd rm 2清空磁盘信息:[root@client3 ~]# wipefs -af /dev/sdb磁盘变化:(删除旧磁盘,更换新盘,虚拟机中删除后原50G硬盘,重新添加一个80G硬盘。此时集群状态原硬盘50G更换后为80G[root@master ~]# cd /data/idc-cluster/[root@master idc-cluster]# ceph-deploy osd prepare client3:/dev/sdb存储空间也变大了(原来为135G,更改硬盘后存储空间为165G)。数据依然存在,无变化。CEPH集群恢复中:[root@BDDB cephfs]# ceph health恢复完成:[root@BDDB cephfs]# ceph health
“分布式Ceph存储集群集的详细步骤”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注天达云网站,小编将为大家输出更多高质量的实用文章!