您的位置:首页 > 健康 > 养生 > 招标_加盟网站制作运营_网站优化招商_代写文章

招标_加盟网站制作运营_网站优化招商_代写文章

2024/10/5 13:29:19 来源:https://blog.csdn.net/xu710263124/article/details/142562510  浏览:    关键词:招标_加盟网站制作运营_网站优化招商_代写文章
招标_加盟网站制作运营_网站优化招商_代写文章

1. osd磁盘的删除

(这里以删除node1上的osd.0磁盘为例)
1. 查看osd磁盘状态

[root@node1 ceph]# ceph osd tree
ID CLASS WEIGHT  TYPE NAME      STATUS REWEIGHT PRI-AFF
-1       0.00298 root default
-3       0.00099     host node10   hdd 0.00099         osd.0      up  1.00000 1.00000
-5       0.00099     host node21   hdd 0.00099         osd.1      up  1.00000 1.00000
-7       0.00099     host node32   hdd 0.00099         osd.2      up  1.00000 1.00000

2. 先标记为out

[root@node1 ceph]# ceph osd out osd.0
marked out osd.0.[root@node1 ceph]# ceph osd tree
ID CLASS WEIGHT  TYPE NAME      STATUS REWEIGHT PRI-AFF
-1       0.00298 root default
-3       0.00099     host node10   hdd 0.00099         osd.0      up        0 1.00000            可以看到权重为0,但状态还是UP
-5       0.00099     host node21   hdd 0.00099         osd.1      up  1.00000 1.00000
-7       0.00099     host node32   hdd 0.00099         osd.2      up  1.00000 1.00000

3. 再rm删除,但要先去osd.0对应的节点上,停止ceph-osd服务,否则rm不了

[root@node1 ceph]# systemctl stop ceph-osd@0.service[root@node1 ceph]# ceph osd rm osd.0
removed osd.0
[root@node1 ceph]# ceph osd tree
ID CLASS WEIGHT  TYPE NAME      STATUS REWEIGHT PRI-AFF
-1       0.00298 root default
-3       0.00099     host node10   hdd 0.00099         osd.0     DNE        0              状态不再为UP了
-5       0.00099     host node21   hdd 0.00099         osd.1      up  1.00000 1.00000
-7       0.00099     host node32   hdd 0.00099         osd.2      up  1.00000 1.00000

4. 查看集群状态

[root@node1 ceph]# ceph -scluster:id:     6788206c-c4ea-4465-b5d7-ef7ca3f74552health: HEALTH_WARN1 osds exist in the crush map but not in the osdmap     有警告,没有在crush算法中删除services:mon: 3 daemons, quorum node1,node2,node3mgr: node1(active), standbys: node2, node3osd: 2 osds: 2 up, 2 in                            发现只有两个osd,说明osd.0删除成功data:pools:   0 pools, 0 pgsobjects: 0  objects, 0 Busage:   28 MiB used, 2.0 GiB / 2.0 GiB avail        3G变为2G,说明删除成功pgs:

5. 在crush算法中和auth验证中删除

[root@node1 ceph]# ceph osd crush remove osd.0
removed item id 0 name 'osd.0' from crush map
[root@node1 ceph]# ceph auth del osd.0
updated

6, 还需要在osd.0对应的节点上卸载

[root@node1 ceph]# df -h |grep osd
tmpfs           488M   48K  488M   1% /var/lib/ceph/osd/ceph-0[root@node1 ceph]# umount /var/lib/ceph/osd/ceph-0

7, 在osd.0对应的节点上删除osd磁盘产生的逻辑卷

[root@node1 ceph]# pvsPV         VG                                        Fmt  Attr PSize    PFree/dev/sdb   ceph-56e0d335-80ba-40d8-b076-fc63a766dcac lvm2 a--  1020.00m    0[root@node1 ceph]# vgsVG                                        #PV #LV #SN Attr   VSize    VFreeceph-56e0d335-80ba-40d8-b076-fc63a766dcac   1   1   0 wz--n- 1020.00m    0[root@node1 ceph]# lvremove ceph-56e0d335-80ba-40d8-b076-fc63a766dcac
Do you really want to remove active logical volume ceph-56e0d335-80ba-40d8-b076-fc63a766dcac/osd-block-ef26149d-5d7d-4cc7-8251-684fbddc2da5? [y/n]:yLogical volume "osd-block-ef26149d-5d7d-4cc7-8251-684fbddc2da5" successfully removed

至此,就完全删除了

2. osd磁盘的添加

如果要再加回来,再次在部署节点使用下面命令即可

[root@node1 ceph]# ceph-deploy disk zap node1 /dev/sdb
[root@node1 ceph]# ceph-deploy osd create --data /dev/sdb node1

如果需要将ceph已经识别的盘符格式化,执行如下

lvremove /dev/mapper/ceph-56e0d335-80ba-40d8-b076-fc63a766dcac

注:这里根据自己ceph盘符修改参数

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com