使用 ceph-deploy-201 部署3个节点高可用集群并给出挂载 Cephfs 文件系统实例。
一、安装 ceph-deploy-2.0.1
-
在一个干净的 CentOS 7 节点上安装 ceph-deploy-2.0.1:
sudo yum install -y https://download.ceph.com/rpm-luminous/el7/noarch/ceph-deploy-2.0.1-0.noarch.rpm -
安装完成后,使用以下命令检查是否安装成功:
ceph-deploy --version如果成功安装,会显示 ceph-deploy 的版本号。
二、创建 Ceph 集群
-
准备3台 CentOS 7 节点,分别为 ceph1、ceph2、ceph3。
-
在 ceph1 节点上创建 Ceph 集群:
mkdir ceph-cluster cd ceph-cluster ceph-deploy new ceph1此时 ceph-cluster 目录下会生成一个名为 ceph.conf 的配置文件。
-
编辑 ceph.conf 文件,将以下内容添加到文件末尾:
mon_initial_members = ceph1, ceph2, ceph3 mon_host = 10.0.0.1,10.0.0.2,10.0.0.3 public_network = 10.0.0.0/24 osd pool default size = 2 osd pool default min size = 1 osd crush chooseleaf type = 1其中,mon_initial_members 和 mon_host 分别指定了 Ceph 集群的监控节点和 IP 地址,public_network 指定了 Ceph 集群所使用的网络地址,osd pool default size 和 osd pool default min size 分别指定了 Ceph 存储池的副本数和最小副本数,osd crush chooseleaf type 指定了 CRUSH 算法的类型。
-
在 ceph1 节点上初始化 Ceph 集群:
ceph-deploy mon create-initial执行此命令后,ceph1 节点会成为 Ceph 集群的监控节点。
-
在 ceph1 节点上安装 Ceph OSD:
ceph-deploy osd create --data /dev/sdb ceph1此命令会将 /dev/sdb 格式化并挂载到 /var/lib/ceph/osd/ceph-0 目录下,作为 Ceph OSD 的数据存储目录。
-
在 ceph2 和 ceph3 节点上重复步骤 4 和 5。
三、创建 CephFS 文件系统
-
在 ceph1 节点上创建 CephFS 文件系统:
ceph-deploy mds create ceph1此命令会在 ceph1 节点上创建一个 MDS 服务,用于管理 CephFS 文件系统。
-
在 ceph1 节点上创建 CephFS 文件系统:
ceph osd pool create cephfs_data 64 ceph osd pool create cephfs_metadata 64 ceph fs new cephfs cephfs_metadata cephfs_data此命令会创建两个 Ceph 存储池,一个用于存储 CephFS 文件系统的数据,另一个用于存储 CephFS 文件系统的元数据。最后一行命令创建 CephFS 文件系统,并将元数据池和数据池关联。
-
在 ceph1 节点上挂载 CephFS 文件系统:
mkdir /mnt/cephfs mount -t ceph ceph1:/ /mnt/cephfs -o name=admin,secretfile=/etc/ceph/ceph.client.admin.keyring此命令会在 /mnt/cephfs 目录下挂载 CephFS 文件系统。
-
在 ceph2 和 ceph3 节点上重复步骤 1 和 3。
四、测试
-
在任意一个节点上创建一个测试文件:
echo "Hello CephFS" > /mnt/cephfs/test.txt -
在另外一个节点上查看测试文件:
cat /mnt/cephfs/test.txt如果打印出 "Hello CephFS",则说明 CephFS 文件系统已经成功挂载。
原文地址: https://www.cveoy.top/t/topic/97e 著作权归作者所有。请勿转载和采集!