Ceph简介

Ceph是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。
Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表),并随后贡献给开源社区。
在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。
RedHat及OpenStack都可与Ceph整合以支持虚拟机镜像的后端存储。

Ceph特点

• 高性能
a. 摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高。
b.考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等。
c. 能够支持上千个存储节点的规模,支持TB到PB级的数据。

• 高可用性
a. 副本数可以灵活控制。
b. 支持故障域分隔,数据强一致性。
c. 多种故障场景自动进行修复自愈。
d. 没有单点故障,自动管理。

• 高可扩展性
a. 去中心化。
b. 扩展灵活。
c. 随着节点增加而线性增长。

• 特性丰富
a. 支持三种存储接口:块存储、文件存储、对象存储。
b. 支持自定义接口,支持多种语言驱动。

Ceph架构

支持三种接口:

• Object:有原生的API,而且也兼容Swift和S3的API。

• Block:支持精简配置、快照、克隆。

• File:Posix接口,支持快照。

分布式存储配置NFS 分布式存储部署方案_ceph

Ceph核心组件及概念介绍

• Monitor
一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用来保存OSD的元数据。

• OSD
OSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。

• MDS
MDS全称Ceph Metadata Server,是CephFS服务依赖的元数据服务。

• Object
Ceph最底层的存储单元是Object对象,每个Object包含元数据和原始数据。

• PG
PG全称Placement Grouops,是一个逻辑的概念,一个PG包含多个OSD。引入PG这一层其实是为了更好的分配数据和定位数据。

• RADOS
RADOS全称Reliable Autonomic Distributed Object Store,是Ceph集群的精华,用户实现数据分配、Failover等集群操作。

• Libradio
Librados是Rados提供库,因为RADOS是协议很难直接访问,因此上层的RBD、RGW和CephFS都是通过librados访问的,目前提供PHP、Ruby、Java、Python、C和C++支持。

• CRUSH
CRUSH是Ceph使用的数据分布算法,类似一致性哈希,让数据分配到预期的地方。

• RBD
RBD全称RADOS block device,是Ceph对外提供的块设备服务。

• RGW
RGW全称RADOS gateway,是Ceph对外提供的对象存储服务,接口与S3和Swift兼容。

• CephFS
CephFS全称Ceph File System,是Ceph对外提供的文件系统服务。

• Pool:存储池,是存储对象的逻辑分区,它规定了数据冗余的类型和对应的副本
分布策略;支持两种类型:副本(replicated)和 纠删码(Erasure Code)
> 一个Pool里有很多PG;
> 一个PG里包含一堆对象;一个对象只能属于一个PG;
> PG属于多个OSD,分布在不同的OSD上;

实验环境

server153 centos7 192.168.121.153 系统盘sda OSD: sdb sdc 20GB ceph-deploy mon X 1 osd X 2
server154 centos7 192.168.121.154 系统盘sda OSD: sdb sdc 20GB mon X 1 osd X 2
server155 centos7 192.168.121.155 系统盘sda OSD: sdb sdc 20GB mon X 1 osd X 2

首先就是环境的准备,我这里选用三台主机

分布式存储配置NFS 分布式存储部署方案_ceph_02


分布式存储配置NFS 分布式存储部署方案_ceph_03


分布式存储配置NFS 分布式存储部署方案_数据_04


分布式存储配置NFS 分布式存储部署方案_openstack_05


分布式存储配置NFS 分布式存储部署方案_数据_06


这样环境就准备好了,接下来启动三台主机

先同步所有机器的时间,ceph分布式存储系统对时间的要求还是比较严格的

yum  install -y  ntpdate
ntpdate  ntp.aliyun.com

然后配置主机间的解析,这个看自己的集群来配

vim /etc/hosts

分布式存储配置NFS 分布式存储部署方案_分布式存储配置NFS_07


关闭selinux

setenforce  0
sed  -i  '/SELINUX=/cSELINUX=disabled'    /etc/selinux/config

然后配置各主机之间的ssh密钥互信,这里我就不介绍了
这个我在之前的作品中有详细介绍过,忘记了的话可以去看看
ssh密钥互信的配置 还要注意一点,对自己主机的密钥互信也要配,不是其它两台而已

然后修改最大打开文件数

cat > /etc/security/limits.conf << EOF
*  soft  nofile  65535
*  hard  nofile 65535
EOF

然后退出重连,让配置文件在当前环境生效

分布式存储配置NFS 分布式存储部署方案_分布式存储配置NFS_08


配置软件包下载的yum源,在阿里源就有

配置阿里的epel源

wget -O /etc/yum.repos.d/epel.repo https://mirrors.aliyun.com/repo/epel-7.repo

然后配置ceph的yum源,阿里也有,根据自己的系统来选,我用的是centos7

这个是阿里镜像源

分布式存储配置NFS 分布式存储部署方案_openstack_09

cat > /etc/yum.repos.d/ceph.repo << EOF
[ceph]
name=ceph
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/x86_64/
gpgcheck=0
priority=1
 
[ceph-noarch]
name=cephnoarch
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/noarch/
gpgcheck=0
priority=1
 
[ceph-source]
name=Ceph source packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/SRPMS
gpgcheck=0
priority=1
EOF

重新制作yum缓存

yum  clean all
yum  makecache  fast

选一台主机来安装ceph-deploy,用于集群的初始化
可以用别的主机,也可以用这三台中的某一台,我这里选用153
用pip来安装,因为yum安装的版本太低

[root@server153 ~]# pip  install  ceph-deploy==2.0.1  -i https://mirrors.aliyun.com/pypi/simple/

查看ceph版本是否对

[root@server153 ~]# ceph-deploy --version
2.0.1

没问题就开始初始化集群
先创建一个目录来执行后面的命令,因为后面会产生一些配置文件,都是在这个目录里执行才有效

[root@server153 ~]# mkdir  ~/ceph-cluster
[root@server153 ~]# cd ~/ceph-cluster/

开始创建集群

[root@server153 ceph-cluster]# ceph-deploy new server153 server154 server155

分布式存储配置NFS 分布式存储部署方案_数据_10


这样集群就创建好了

然后所有节点安装 ceph 组件包,当然了在ceph-deploy执行就可以了

[root@server153 ceph-cluster]# ceph-deploy  install --no-adjust-repos server153 server154 server155

部署 monitor 服务,产生相关的管理秘钥

[root@server153 ceph-cluster]# ceph-deploy mon create-initial

查看当前目录产生的文件

[root@server153 ceph-cluster]# ls
ceph.bootstrap-mds.keyring  ceph.client.admin.keyring
ceph.bootstrap-mgr.keyring  ceph.conf
ceph.bootstrap-osd.keyring  ceph-deploy-ceph.log
ceph.bootstrap-rgw.keyring  ceph.mon.keyring

查看启动的服务和端口

分布式存储配置NFS 分布式存储部署方案_ceph_11


将配置文件分发给所以节点

[root@server153 ceph-cluster]# ceph-deploy admin server153 server154 server155

分布式存储配置NFS 分布式存储部署方案_分布式存储配置NFS_12

然后查看我们添加的两块磁盘

ls: cannot access blk: No such file or directory
[root@server153 ceph-cluster]# lsblk
NAME               MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                  8:0    0   40G  0 disk 
├─sda1               8:1    0  400M  0 part /boot
└─sda2               8:2    0 39.6G  0 part 
  ├─centos-lv_root 253:0    0 37.6G  0 lvm  /
  └─centos-lv_swap 253:1    0    2G  0 lvm  [SWAP]
sdb                  8:16   0   20G  0 disk 
sdc                  8:32   0   20G  0 disk 
sr0                 11:0    1 1024M  0 rom

每个节点都一样的
现在将他们创建为osd对象

[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdb server153
[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdb server154
[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdb server155
[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdc server153
[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdc server154
[root@server153 ceph-cluster]# ceph-deploy  osd create --data /dev/sdc server155

然后部署 MGR 服务

[root@server153 ceph-cluster]# ceph-deploy  mgr   create  server153 server154 server155

然后查看集群情况

[root@server153 ceph-cluster]# ceph -s

分布式存储配置NFS 分布式存储部署方案_ceph_13


可以看到是正常的,但是有一个警告,提示 mon允许运行在 全局 非安全环境下

所以我们现在去解决这个问题

[root@server153 ceph-cluster]# ceph config set  mon  auth_allow_insecure_global_id_reclaim false

然后再查看集群的情况

[root@server153 ceph-cluster]# ceph -s

分布式存储配置NFS 分布式存储部署方案_openstack_14


这样集群就正常了

ceph分布式存储系统的安装这样就完成了

希望对大家有用

下一篇再讲ceph分布式存储系统的使用