1.Ceph集群OSD扩容方案

Ceph集群OSD的扩容支持两种方式:

  • 横向扩容
    • 通过增加OSD节点来达到扩容的目的。
    • 使用横向扩容要完成以下几个步骤:
      • 在新的机器中进行初始化操作、配置Yum源、环境预先准备、配置主机名解析、时间同步等等。
      • 在新的机器中安装OSD的组件包。
      • 最后在执行ceph-deploy osd create {node_name} --data {disk}命令将新的OSD加入到集群中。
  • 纵向扩容
    • 通过为集群中现有的Ceph集群中,增加硬盘配置成OSD来达到扩容的目的,如果机器数量有限,建议将硬盘插在现有OSD机器中实现扩容。
    • 使用纵向扩容要完成以下几个步骤:
      • 添加新硬盘。
      • 将硬盘的数据清空
      • 使用ceph-deploy osd create {node_name} --data {disk}命令为添加新的OSD。

2.实现OSD的横向扩容

1.基础环境准备好

2.在集群中添加新的oSD节点
[root@ceph-node-1 ~]# ceph-deploy osd create ceph-node-1 --data /dev/sdc
[root@ceph-node-1 ~]# ceph-deploy osd create ceph-node-2 --data /dev/sdc
[root@ceph-node-1 ~]#ceph-deploy osd create ceph-node-3 --data /dev/sdc

3.查看集群的状态
[root@ceph-node-1 ~]# ceph -s
  cluster:
    id:     a5ec192a-8d13-4624-b253-5b350a616041
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum ceph-node-1,ceph-node-2,ceph-node-3 (age 35h)
    mgr: ceph-node-1(active, since 35h), standbys: ceph-node-2, ceph-node-3
    mds: cephfs-storage:1 {0=ceph-node-1=up:active} 2 up:standby
    osd: 6 osds: 6 up (since 35h), 6 in (since 35h)					#已经是6个OSD节点了
    rgw: 1 daemon active (ceph-node-1)
 
  task status:
 
  data:
    pools:   9 pools, 352 pgs
    objects: 274 objects, 166 KiB
    usage:   6.1 GiB used, 54 GiB / 60 GiB avail
    pgs:     352 active+clean

4.实现OSD的纵向扩容

1.在现有OSD中添加新硬盘
[root@ceph-node-1 ~]# lsblk /dev/sdd
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sdd    8:48   0  10G  0 disk

2.将硬盘的数据清空
[root@ceph-node-1 ceph-deploy]# ceph-deploy disk zap ceph-node-1 /dev/sdd

这条命令其实就是执行了一个dd命令,将硬盘的数据清空。

第⑪讲:Ceph集群OSD扩容方案及实现横向和纵向扩容-LMLPHP

3.添加新的OSD
[root@ceph-node-1 ceph-deploy]# ceph-deploy osd create ceph-node-1 --data /dev/sdd 

4.查看集群的状态
[root@ceph-node-1 ceph-deploy]# ceph -s
  cluster:
    id:     a5ec192a-8d13-4624-b253-5b350a616041
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum ceph-node-1,ceph-node-2,ceph-node-3 (age 35h)
    mgr: ceph-node-1(active, since 35h), standbys: ceph-node-2, ceph-node-3
    mds: cephfs-storage:1 {0=ceph-node-1=up:active} 2 up:standby
    osd: 7 osds: 7 up (since 87s), 7 in (since 87s)			#当前集群中有7个OSD
    rgw: 1 daemon active (ceph-node-1)
 
  task status:
 
  data:
    pools:   9 pools, 352 pgs
    objects: 274 objects, 166 KiB
    usage:   7.1 GiB used, 63 GiB / 70 GiB avail
    pgs:     352 active+clean
    
5.查看OSD的列表
[root@ceph-node-1 ceph-deploy]# ceph osd tree
ID CLASS WEIGHT  TYPE NAME            STATUS REWEIGHT PRI-AFF 
-1       0.06857 root default                                 
-3       0.02939     host ceph-node-1                         
 0   hdd 0.00980         osd.0            up  1.00000 1.00000 
 3   hdd 0.00980         osd.3            up  1.00000 1.00000 
 6   hdd 0.00980         osd.6            up  1.00000 1.00000 
-5       0.01959     host ceph-node-2                         
 1   hdd 0.00980         osd.1            up  1.00000 1.00000 
 4   hdd 0.00980         osd.4            up  1.00000 1.00000 
-7       0.01959     host ceph-node-3                         
 2   hdd 0.00980         osd.2            up  1.00000 1.00000 
 5   hdd 0.00980         osd.5            up  1.00000 1.00000 

ceph-node-1节点已经有3个OSD,一个硬盘就对应一个OSD节点。

04-07 11:39