1.写在前面
本文主要内容为搭建三节点Ceph集群的过程。
这两天捣鼓了一下Ceph,准备做个底层基于ceph的nas存储,首先网上看了一些教程,还有对照了一下书籍,依然在安装配置时ceph还是遇到很多问题,所以写此贴记录一下自己遇到的问题和安装过程,同时也希望能够帮助一些小伙伴搭建Ceph集群。
本文使用 ceph-deploy 官方工具部署。
2.安装环境
linux版本,精简版
Ceph版本 Giant
VMware workstation版本
网络(桥接物理主机)
node1 192.168.68.11
node2 192.168.68.12
node3 192.168.68.13
网关 192.168.68.1
3.安装步骤
3.1 VMware Workstation 安装虚机步骤
3.2 centos7安装过程
node2、node3也是如此,局部将1改为2或3即可(或者使用Vmware Workstation克隆功能,这里不再演示)
给三个节点虚机分别增加3块硬盘
3.3 安装Ceph前虚机配置(三个节点都需要)
配置hosts访问
配置node1免密访问node2、3
关闭防火墙
关闭selinux
安装并配置ntp时钟服务
添加Ceph Giant 版本包 更新yum
修改ceph.repo配置文件(提示':%d'可快速清除此页内容)
更新yum
3.4 安装和配置Ceph
强烈建议此步骤前将三台虚机快照备份
3.4.1 在node1上创建Ceph集群
安装ceph-deploy
创建一个ceph集群
在node1节点给个节点安装ceph
查看安装ceph版本
在node1上创建第一个ceph monitor
检查集群状态
在node1上创建OSD(在ceph目录下执行)
列出可用磁盘
删除选择磁盘的分区和内容
创建osd
检查集群状态
此时单节点配置完毕
3.4.2 拓展Ceph集群
在node1上将共有网络地址添加到文件/etc/ceph/ceph.conf
分别在node2、3上创建monitor
查看集群状态
此时另外两个节点已成功加入
处理node2、3节点的磁盘并创建OSD
调整rbd存储池pg_num和pgp_num的值,使我们的集群达到HEALTH_OK状态
检查集群状态,如果为HEALTH_OK,集群已经完整搭建并且正常了
4.遇到的一些错误
原因:修改了ceph用户里的ceph.conf文件内容,但是没有把这个文件里的最新消息发送给其他节点,所有要推送消息
或
5.一些常用命令
检查Ceph安装状态
查看Ceph版本
观察集群健康状况
检查Ceph monitor仲裁状态
列表PG
列表Ceph存储池
列表集群的认证密钥
检查集群使用状态
检查OSD的Crush map
查看osd黑名单ceph osd blacklist ls
(作者水平有限,文章如有错误,烦请指正。)