文档首页 > > 最佳实践> 使用VBD共享云硬盘搭建RHCS集群(Linux)> 创建集群并配置磁盘

创建集群并配置磁盘

更新时间: 2019/05/22 GMT+08:00

操作场景

本章节指导用户登录High Availability Management页面创建集群并配置磁盘。

操作步骤

  1. 打开并登录High Availability Management页面。

    • 地址:https://ecs-share-0003的弹性IP:8084

      例如:https://122.3x.xx.xx:8084

    • 帐号及密码:创建ecs-share-0003时设置的root帐号及密码

  2. 选择“Manage Cluster”,单击创建集群。
  3. 在“Create New Cluser”页面,根据页面提示设置以下参数:

    • Cluser Name:自定义集群名称,例如,mycluster。
    • Node Name:分别设置计算节点的名称,例如,ecs-share-0001。
    • Paasword:安装ricci中设置的ricci密码。

      添加完第一个节点的信息后,单击“Add Another Node”添加第二个节点。

    本示例在集群中添加了两个节点,具体参数如 图1所示。
    图1 创建集群

  4. 参数设置完成后,单击“Create Cluster”,开始创建集群。

    创建成功后,如图2所示,两台云服务器均已添加至mycluster集群中。

    图2 创建集群成功

    如果重启节点ecs-share-0001和ecs-share-0002,在重启后,集群相关的服务(cman、rgmanager、ricci、modclusterd、clvmd)都会自动重启,并且会自动加入集群。如果发现有节点没有加入到mycluster集群,可以在High Availability Management中重新将节点加入到mycluster集群即可。

  5. 选择“Resources”,单击为集群新建磁盘资源。
  6. 在“Add Resource to Cluster”页面,根据页面提示设置以下参数:

    • Name:自定义磁盘资源名称,例如,GFS_VBD。
    • Mount Point:安装ricci中设置的磁盘挂载目录,例如,/mnt/gfs_vbd。
    • Device,FS Label,or UUID:此处以填写安装ricci中磁盘设备名称为例,例如,/dev/xvdb。
    • Filesystem Type:此处选择安装ricci中设置的分布式文件系统,例如,GFS2。
    本示例添加了名称为GFS_VBD的磁盘资源,具体参数如 图3所示。
    图3 创建磁盘资源

  7. 参数设置完成后,单击“Submit”,开始创建磁盘资源。

    创建成功后,如图4所示。

    图4 创建磁盘资源成功

  8. 选择“Failover Domains”,单击为集群服务新建故障切换域。
  9. 在“Add Failover Domain to Cluster”页面,根据页面提示设置以下参数:

    Name:自定义故障切换域的名称,例如,gfs_failover。

    将节点1和节点2添加至故障切换域。

    本示例添加了名称为gfs_failover的故障切换域,具体参数如 图5所示。
    图5 创建故障切换域

  10. 参数设置完成后,单击“Create”,开始创建故障切换域。

    创建成功后,如图6所示。

    图6 创建故障切换域成功

  11. 选择“Service Groups”,单击为集群中的节点创建服务组。

    以ecs-share-0001为例。

  12. 在“Add Service Group to Cluster”页面,根据页面提示设置以下参数:

    • Service Name:自定义服务组的名称,例如,GFS_SG_VBD_1。
    • Failover Domain:选择8中创建的故障切换域,例如,gfs_failover。
    • Add Resource:选择5中创建的资源,例如,GFS_VBD。
    本示例添加了名称为GFS_SG_VBD_1的服务组,并添加了GFS_VBD磁盘资源,具体参数如 图7图8所示。
    图7 创建服务组
    图8 添加GFS_VBD磁盘资源

  13. 参数设置完成后,单击“Submit”,并选择Start on ecs-share-0001节点,开始为ecs-share-0001创建服务组。

    创建成功后,如 图9所示。
    图9 创建ecs-share-0001服务组成功

  14. 参考11~13,为另一个节点ecs-share-0002创建服务组。

    两个服务组都创建成功后,如图10所示。

    图10 创建两个服务组成功

  15. 服务组创建完成后,执行以下步骤,分别查看云服务器ecs-share-0001和ecs-share-0002的集群状况。

    以ecs-share-0001为例。
    1. 使用root用户登录计算节点。
    2. 执行以下命令,查看服务组。

      clustat

      回显类似如下信息:
      [root@ecs-share--0001 ~]# clustat
      Cluster Status for mycluster @ Wed Apr 11 16:56:51 2018
      Member Status: Quorate
      
       Member Name                                                     ID   Status
       ------ ----                                                     ---- ------
       ecs-share-0001                                                      1 Online, Local, rgmanager
       ecs-share-0002                                                      2 Online, rgmanager
      
       Service Name                                               Owner (Last)                                               State
       ------- ----                                               ----- ------                                               -----
       service:GFS_SG_VBD_1                                       ecs-share-0001                                             started
       service:GFS_SG_VBD_2                                       ecs-share-0002                                             started

      GFS_SG_VBD_1和GFS_SG_VBD_2即为14中创建的两个服务组。

    3. 执行以下命令,查看磁盘分区及挂载信息。

      df -h

      回显类似如下信息:
      [root@ecs-share--0001 ~]# df -h
      Filesystem      Size  Used Avail Use% Mounted on
      /dev/xvda2       36G  2.8G   31G   9% /
      tmpfs           1.9G   32M  1.9G   2% /dev/shm
      /dev/xvdb       100G  518M  100G   1% /mnt/gfs_vbd

      其中,“/dev/xvdb”即为共享盘设备名,分区成功并已挂载至“/mnt/gfs_vbd”目录下。

      如果执行完df -h命令发现分区表里没有挂载的共享盘,请执行“mount 磁盘设备名称 挂载目录” 命令重新挂载磁盘,例如,mount /dev/xvdb /mnt/gfs_vbd,挂载后便可与其他云服务器同步使用该共享盘。

    4. 参考15.a~15.c,查看另一台云服务器的集群状况。

文档是否有解决您的问题?

提交成功!

非常感谢您的反馈,我们会继续努力做到更好!

反馈提交失败,请稍后再试!

在文档使用中是否遇到以下问题







请至少选择或填写一项反馈信息

字符长度不能超过200

反馈内容不能为空!

提交反馈 取消