1、Ceph Monitors(MON)

维护集群状态的映射的守护进程。集群映射是五个映射的集合,其中包含关于集群状态及其配置的信息。Ceph必须处理每个集群事件,更新适当的映射,并将更新的映射复制到每个MON守护进程。

2、Ceph Oject Storage Devices(OSD)

Ceph存储集群的底层块设备。osd将存储设备(如硬盘或其他块设备)连接到Ceph存储集群。单个存储服务器可以运行多个OSD守护进程,为集群提供多个OSD。

3、Ceph Managers(MGR)

提供一组集群的统计信息。如果集群中没有MGR,客户端的IO操作不会受到影响,但是尝试查询集群统计信息将会失败。红帽建议你每个集群至少部署2个MGR。

4、Ceph Metadata Server(MDS)

代表Ceph文件系统存储元数据。MDS使cephfs能够与Ceph对象存储进行交互,将一个inode映射到一个对象和Ceph在树中存储数据的位置。 访问cephfs文件系统的客户端首先向MDS发送一个请求,MDS提供从正确的osd获取文件内容所需的信息。

5、RADOS Block Device(RBD)

通过Ceph集群中的RBD镜像提供管设备。Ceph将组成RBD镜像的单个对象分散在集群中的不同osd上。因为组成RBD的对象位于不同的osd上,所以对块设备的访 问会自动并行化。

6、librados(Ceph本地API)

Ceph Object Gateway实现其他Ceph接口的基础库是librados。librados库是一个原生C库, 它允许应用程序直接使用RADOS访问Ceph集群存储的对象。

7、RADOS网关

Ceph Object Gateway(RADOS Gateway、RADOSGW或RGW)是一个用librados构建的对象存储接口。它 使用这个库与Ceph集群通信,并直接写入OSD进程。为应用提供基于RESTful API的网关,支持Amazon S3 和OpenStack Swift两种接口。

8、CephFS

一个并行文件系统,它提供一个可伸缩的、单层次的共享磁盘。Red Hat Ceph Storage为cephfs提供生产环境支持,包括对快照的支持。MDS管理与存储在cephfs中的文件相关的元数据,包括文件访问、更改和修改时间戳。

9、pool

Pool是Ceph存储集群用于存储对象的逻辑分区。 Ceph为每个池分配特定数量被称为PG(Placement group, pg)的散列桶(hash buckets),用于对存储 对象进行分组。

10、Placement Group(PG)

PG将一系列对象聚合到一个散列桶或组中。Ceph将每个PG映射到一组osd。一个对象属于一个PG,属于同一个PG的所有对象返回相同的哈希结果。

11、BlueStore

BlueStore取代了FileStore作为osd的默认存储后端。FileStore将对象作为文件存储在块设备之上的文 件系统(Red Hat推荐XFS)中。BlueStore直接将对象存储在原始块设备上,并消除了文件系统层,从而提高了读写操作速度。