前提要有一套搭建好的ceph集群1.在ceph管理节点执行ceph-deploy mds create node1 node2 node3 #node1 node2 node3一般会选择mgr和mon所在的节点2.在ceph节点中创建poolceph osd create cephfs_data 128 #存储数据的,128是pg数目,具体有计算公式,如果集群少于15个osd的话,可以先设置为12
原创 2018-03-01 11:01:09
667阅读
1点赞
之前介绍了 RBD 的使用方法,有了 RBD,远程磁盘挂载的问题就解决了,但 RBD 的问题是不能多个主机共享一个磁盘,如果有一份数据很多客户端都要读写该怎么办呢?这时 CephFS 作为文件系统存储解决方案就派上用
转载 2019-07-04 16:07:00
153阅读
2评论
1、CephFs介绍CephFileSystem(CephFS)是与POSIX标准兼容的文件系统,能够提供对Ceh存储系统的访问。...
原创 2022-08-16 21:54:56
325阅读
对于所有的对象都通用的方法覆盖 equals 请遵守通用约定什么时候应该覆盖 equals 方法? 如果类具有自己特有的“逻辑相等”的概念,比如 Integer 或者 String。程序员需要利用 equals 方法来比较逻辑相等,而不是它们是否指向同一个对象。有一种“值类”不需要覆盖 equals 方法 用实例受控确保“每个值最多只存在一个对象的类”,比如 Boolean ,Enum 等类。在覆
目录 [隐藏]1 CephFS简介2 CephFS客户端2.1 内核客户端2.1.1 命令行挂载2.1.2 通过fstab客户端挂载2.1.3 卸载2.2 FUSE客户端2.2.1 命令行挂载2.2.2 通过fatab文件挂载2.2.3 卸载3 Rank3.1 设置Ra
转载 2023-07-16 21:02:52
158阅读
Ceph优化总结一. 硬件层面1、 CPU2、 内存3、 网络4、 SSD5、 BIOS二. 软件层面1、 Kernel pid max2、 设置MTU,交换机端需要支持该功能,系统网卡设置才有效果3、 read_ahead, 通过数据预读并且记载到随机访问内存方式提高磁盘读操作4、 swappiness, 主要控制系统对swap的使用5、 I/O Scheduler,SSD要用noop,SATA
转载 2024-05-01 13:24:23
91阅读
CephFS权限管理身份认证原理用户通过客户端向 MON 发起请求。客户端将用户名传递到 MON。MON 对用户名进行检查,若用户存在,则通过加密用户密钥生成一个 session key 并返回客户端。客户端通过共享密钥解密 session key,只有拥有相同用户密钥环文件的客户端可以完成解密。客户端得到 session key 后,客户端持有 session key 再次向 MON 发起请求M
转载 2024-02-20 21:31:35
95阅读
目录Ceph架构介绍NFS介绍分布式文件系统比较CephFS介绍MDS介绍5.1 单活MDS介绍5.2 单活MDS高可用CephFS遇到的部分问题6.1 客户端缓存问题6.2 务端缓存不释放6.3 客户端夯住或者慢查询6.4 客户端失去连接6.5 主从切换问题CephFS问题解决方案7.1 服务端缓存警告问题...
原创 2021-04-20 10:15:18
1172阅读
Cephwen件系统的名称是CephFS,它是一个POSIX兼容的分布式文件系统,并使用CephRADOS存储数据。要实现Cephwen件系统,需要一个正常运行的Ceph存储集群,并且至少包含一个Ceph元数据服务器(CephMetadataServer,MDS)。客户端可以通过两种方式使用Ceph wen件系统:使用本地内核驱动程序挂载CephFS,或者使用CephFUSE。(1)准备一个健康的cep
原创 2019-09-03 18:54:57
2089阅读
Kubernetes (K8S) 是一个开源的容器编排引擎,能够自动化管理容器化应用程序的部署、扩展和操作。而CephFS 是一个开源的分布式文件系统,能够为 Kubernetes 集群提供持久化存储的解决方案。在本文中,我们将详细介绍如何在 K8S 中使用 CephFS。 整个过程可以分为以下步骤: | 步骤 | 操作 | | ------ | ------ | | 步骤一 | 部署 Cep
原创 2024-03-07 14:31:46
109阅读
Ceph FS是一个支持POSIX接口的文件系统,它使用 Ceph 存储集群来存储数据。文件系统对于客户端来说可以方便的挂载到本地使用
原创 2023-08-08 12:03:52
223阅读
CephFS 挂载使用说明 1. 内核挂载 1.1 简介 CephFS 内核模块(kernel driver)是Linux 内核的一部分,内核挂载CephFS 可以获得原生的内核性能。 1.2 内核模块的支持情况 特性 kernel 版本 说明 Inline data 3.19+ Quota 4.1
转载 2021-06-24 13:44:03
1455阅读
1 用户权限管理和授权流程 用户管理功能可让 Ceph 集群管理员能够直接在 Ceph 集群中创建、更新和删除用户。 权限,此文件类似于 linux 系统的中的/etc/passwd 文件。 1.1 列出用户 [ceph@ceph-deploy ceph-cluster]$ ceph auth li ...
转载 2021-08-29 23:34:00
1772阅读
2评论
# 使用Docker部署CephFS的指南 Ceph是一个开源的分布式存储系统,常用于对象存储、块存储和文件系统存储。在这里,我们将学习如何使用Docker容器来部署Ceph文件系统(CephFS)以便于快速开始使用和测试。 ## 1. Ceph的基础知识 Ceph的架构由以下几个主要组件组成: - **Monitors (MONs)**: 负责集群状态和元数据管理. - **Object
原创 8月前
433阅读
Ceph是一个开源的分布式存储系统,旨在提供高性能、高可靠性和可伸缩性的存储解决方案。Ceph的一个重要组成部分是CephFS,这是一个分布式文件系统,可以在Ceph存储集群上提供文件系统服务。 CephFS是一个基于对象存储的文件系统,可以提供与传统本地文件系统相似的功能,但具有更好的扩展性和容错能力。CephFS将文件以对象的形式存储在Ceph集群中,并通过元数据服务器来管理文件和目录的元数
原创 2024-02-19 13:23:27
71阅读
# OpenStack与CephFS的结合应用 在云计算的新时代,OpenStack作为一款流行的开源云平台,提供了一种灵活、可扩展的基础设施管理方式。而Ceph,作为一个开源的分布式存储系统,其强大的性能和可用性,使得它成为OpenStack环境中理想的存储解决方案之一。本文旨在深入探讨OpenStack如何与CephFS(Ceph文件系统)结合使用,通过示例代码帮助读者理解其应用场景。 #
原创 2024-08-02 07:20:37
48阅读
# 使用Ceph RBD还是CephFS的选择流程 ## 流程图 ```mermaid flowchart TD A[开始]-->B[是否需要块设备存储] B-->|是|C[使用Ceph RBD] B-->|否|D[是否需要共享文件系统] D-->|是|E[使用CephFS] D-->|否|F[结束] ``` ## 步骤解析 1. 判断是否需要块设备存储,如果需要,选择使用Ceph RBD
原创 2023-09-17 18:58:41
148阅读
通常情况下,我们需要为 Kubernetes 平台找到一种易于使用、可靠的块存储。因此,本文将对几个开源存储解决方案进行基准测试,以了解它们在各种条件下的性能。本次对比也是在不同硬件配置条件下对DRBD进行测试以及与 Ceph (https://ceph.io/en/) 的测试结果比较。然而,软件定义存储市场在不断发展和演变。新的项目不断的涌现,包括最近发布的 Mayastor (https://
转载 2024-01-26 22:20:45
400阅读
这些命令在你的Ceph集群中的CephFS文件系统上运,注意,默认情况下仅允许使用一个文件系统,要启用创建多个文件系统,请使用cephfsflagsetenable_multipletrue命令cephfsnew<filesystemname><metadatapoolname><datapoolname>这条命令创建一个新的文件系统,文件系统名称和元数据池名称
原创 2019-12-25 11:24:26
5820阅读
1点赞
CephFS 健康消息集群健康检查在文件系统映射图结构(以及封闭式的 MDS 映射图)变为特定状态时, Ceph 监视器守护进程会产生健康消息。消息:mds rank(s) ranks have failed描述:一或多个 MDS rank 没能分给守护进程,只有可用的替补守护进程启动后集群才能恢复运转。消息:mds rank(s) ranks are da
转载 2017-11-01 11:31:26
10000+阅读
  • 1
  • 2
  • 3
  • 4
  • 5