admin
不忘初心,方得始终
级别: 管理员
只看楼主 | | | 0楼 发表于:2018-03-23 09:59

Openstack Ceph更换新磁盘

Openstack Ceph更换新磁盘的步骤如下:
  #systemctl stop ceph-osd@123
  #ceph osd out osd.123
  #ceph osd crush remove osd.123
  #ceph osd rm osd.123
  #ceph auth del osd.123
  #umount /var/lib/ceph/osd/ceph-123

  在服务器上的磁盘RAID界面,做操作把磁盘从UG的未配置状态通过消除上块磁盘遗留cache信息并且创建新的VG后,把磁盘做成RAID0级别的磁盘,并且改磁盘状态为ONLINE。

Openstack Ceph新添加新磁盘的步骤如下:
  #parted -a optimal --script /dev/sde mklabel gpt
  #parted -a optimal --script /dev/sde  mkpart primary xfs 0% 100%
  #mkfs.xfs -f /dev/sde1
  #ceph-disk prepare /dev/sde1
  #mount /dev/sde1 /var/lib/ceph/osd/osd-123
  #systemctl  start ceph-osd@123
  
  如果拉起不了ceph OSD,那么必须这么执行:
  在mon1的ceph 管理节点上执行:
  #ceph-deploy   gatherkeys  osd-10-123-1-101  拷贝ceph.client.admin.keyring到ceph osd的节点。
  #ceph-deploy osd prepare osd-10-123-1-113:/dev/sde1:/dev/nvme0n1p4 (mon1执行,osd-10-123-1-113是要加osd的主机名。前面是OSD的数据盘,后面是journal日志盘。)
  #ceph-deploy osd activate  osd-10-123-1-113:/dev/sde1:/dev/nvme0n1p4  
  #ceph -s查看状态,并且等待ceph 数据平衡完成。