Openstack Ceph更换新磁盘的步骤如下:
#systemctl stop ceph-osd@123
#ceph osd out osd.123
#ceph osd crush remove osd.123
#ceph osd rm osd.123
#ceph auth del osd.123
#umount /var/lib/ceph/osd/ceph-123
在服务器上的磁盘RAID界面,做操作把磁盘从UG的未配置状态通过消除上块磁盘遗留cache信息并且创建新的VG后,把磁盘做成RAID0级别的磁盘,并且改磁盘状态为ONLINE。
Openstack Ceph新添加新磁盘的步骤如下:
#parted -a optimal --script /dev/sde mklabel gpt
#parted -a optimal --script /dev/sde mkpart primary xfs 0% 100%
#mkfs.xfs -f /dev/sde1
#ceph-disk prepare /dev/sde1
#mount /dev/sde1 /var/lib/ceph/osd/osd-123
#systemctl start ceph-osd@123
如果拉起不了ceph OSD,那么必须这么执行:
在mon1的ceph 管理节点上执行:
#ceph-deploy gatherkeys osd-10-123-1-101 拷贝ceph.client.admin.keyring到ceph osd的节点。
#ceph-deploy osd prepare osd-10-123-1-113:/dev/sde1:/dev/nvme0n1p4 (mon1执行,osd-10-123-1-113是要加osd的主机名。前面是OSD的数据盘,后面是journal日志盘。)
#ceph-deploy osd activate osd-10-123-1-113:/dev/sde1:/dev/nvme0n1p4
#ceph -s查看状态,并且等待ceph 数据平衡完成。