OSDMap 机制是 Ceph 架构中非常重要的部分,PG 在 OSD 上的分布和监控由 OSDMap 机制执行。OSDMap 机制和 CRUSH 算法一起构成了 Ceph 分布式架构的基石。OSDMap 机制主要包括如下3个方面:1、Monitor 监控 OSDMap 数据,包括 Pool 集合,副本数,PG 数量,OSD 集合和 OSD 状态。2...
原创 2021-04-20 10:49:28
475阅读
Ceph是一个开源的分布式存储系统,它提供了高可靠性、高性能的对象存储服务。其中的OSDMap和OMap是Ceph中很重要的两个组件,它们在Ceph系统中扮演着不可或缺的角色。 首先来说说OSDMap,OSD是Object Storage Device的缩写,OSDMap是一种用来跟踪Ceph集群中不同OSD的状态和位置的映射。在Ceph集群中,数据会被分散存储在多个OSD上,OSDMap可以告
Ceph Luminous是一个开源的分布式存储解决方案,它为用户提供了高性能、高可靠性的存储服务。其中一个关键的功能是OSD(Object Storage Device)映射,也就是OSD Map,它是Ceph集群中所有OSD的全局状态信息。OSD Map可以帮助Ceph监控和管理存储设备,维持存储系统的稳定性和可靠性。 OSD Map是Ceph集群的核心组件之一,它记录了每个OSD的状态、负
Ceph是一个开源的分布式存储系统,由多台服务器组成的集群可以提供强大且高效的分布式存储服务。在Ceph的架构中,OSD(Object Storage Device)是一个非常关键的角色,它负责存储数据和处理数据的读写请求。而OSDMap则是Ceph集群中的一个重要组件,用来描述和管理OSD的状态和信息。 随着Ceph集群规模的增大和数据负载的增加,集群中的OSD数量也会不断增加,OSDMap
最近因为一个实验需要用到一个功能,需要快速的增加 ceph 的 osdmap 的 epoch 编号 查询osd的epoch编号 root@lab8107:~# ceph osd stat osdmap e4686: 8 osds: 8 up, 8 in 上面显示的 e4686 即为osdmap的ep
原创 2016-03-03 16:18:00
170阅读
目录简介OSDMapPG 和 PGMapOSDMap 机制浅析OSDMap 代码浅析二、OSDMap模块数据结构1.osd_info_t2.osd_xinfo_t3.OSDMap4.Incremental三、MOSDMap消息四、OSDMap更新机制五、OSDMap要点分析
转载 2022-04-28 12:59:00
914阅读
本文主要介绍ceph分布式存储架构中OSDMap和PGMap的原理及相关重要信息。
转载 2020-07-17 14:42:17
6634阅读
前言 本篇讲述的是一个比较极端的故障的恢复场景,在整个集群全部服务器突然掉电的时候,osd里面的osdmap可能会出现没刷到磁盘上的情况,这个时候osdmap的最新版本为空或者为没有这个文件 还有一种情况就是机器宕机了,没有马上处理,等了一段时间以后,服务器机器启动了起来,而这个时候osdmap已经
IT
原创 2017-09-27 14:03:00
106阅读
OSD启动过程中osdmap加载流程OSD启动入口是ceph_osd.cc的main函数,他会调用osd->init()进行osd启动前的初始化工作。int OSD::init(){ ...... int r = store->mount(); // 检查osd目录相关持久化数据,以及文件系统属性等,加载FileStore驱动。
转载 2022-03-03 14:12:57
750阅读
1. 模块简介Monitor 作为Ceph的 Metada Server 维护了集群的信息,它包括了6个 Map,分别是 MONMap,OSDMap,PGMap,LogMap,AuthMap,MDSMap。其中 PGMap 和 OSDMap 是最重要的两张Map。2. 模块的基本结构image.pngMonitor内部使用一套Paxos来实现各种数据的更新...
原创 2021-04-20 10:22:07
612阅读
Ceph是一种流行的开源分布式存储系统,可以用于构建大规模的云存储解决方案。在Ceph中,OSDMap是一个非常重要的组件,用于记录集群中所有OSD的状态和位置信息。 OSDMap是一个二进制的数据结构,包含了Ceph集群中OSD的状态、位置、权重等信息。它存储在Ceph Monitor中,并由ceph-osdomap-tool工具来管理和维护。ceph-osdomap-tool是一个命令行工具
原创 5月前
17阅读
一、ceph部署组件osd:用于存储数据,检测其他osd心跳,向monitor提供监控信息 Monitor:维护展示集群状态的各种图表 Mds:元数据服务器,为ceph文件系统存储元数据 其他: PG(归属组)、monmap、pgmap、fsmap、osdmap环境172.16.1.194 admin/osd/mon 172.16.1.193 osd/mds 172.16.1.191 osd/
环境:​​ceph-12.2.1​​​ 3节点测试性能集群 60块osd 最近ceph集群中有两个osd在重启之后遇到如下问题,osd获取不到集群osdmap产生coredump:ceph version 12.2.1.06 (3e7492b9ada8bdc9a5cd0feafd42fbca27f9c38e) luminous (stable) 1: (()+0xa2bf21) [0x7fcd91
原创 2022-11-04 11:18:01
72阅读
Ceph —— ceph.conf常用参数以下是一些常用到的Ceph配置调优参数,默认值均为ceph_nautilus(14.2.1)源码中抄录,如有参数描述解释上的不妥之处,望指出。mon_osd_cache_size要缓存到内存中的osdmap的最大数量默认值:500Mmon_osd_max_initial_pgs创建一个池的最大pg数(若用户指定了比这更多的PG,那集群将在创建池之后分割PG
1.说明1.1介绍PG全称Placement Grouops,是一个逻辑的概念,一个PG包含多个OSD。引入PG这一层其实是为了更好的分配数据和定位数据。2. 常用操作2.1 查看pg组映射信息$ ceph pg dump2.2 查看一个PG的map$ ceph pg map 1.2f6osdmap e7768 pg 1.2f6 (1.2f6) -> up ...
原创 2021-04-20 10:33:00
482阅读
Ceph存储基本架构:Ceph存储根据其类型,可分为块存储,对象存储和文件存储。Ceph基于对象存储,对外提供三种存储接口,故称为统一存储。Ceph的底层是RADOS(分布式对象存储系统),RADOS系统主要由两部分组成,分别是OSD和MON。MON负责监控整个集群,维护集群的健康状态,维护展示集群状态的各种图表,如OSDMap、MonitorMap、PGMap和CRUSHMap。OSD则用于存储
Ceph存储可分为块存储,对象存储和文件存储。Ceph基于对象存储,对外提供三种存储接口,故称为统一存储。 Ceph的底层是RADOS(分布式对象存储系统),RADOS由两部分组成:OSD和MON。 MON负责监控整个集群,维护集群的健康状态,维护展示集群状态的各种图表,如OSDMap、MonitorMap、PGMap和CRUSHMap。 OSD负责存储数据、复制数据、平衡数据、恢复数据,与其它OSD间进行心跳检查等。通常情况下一块硬盘对应一个OSD。
现象:部署使用ceph集群的时候遇到一个情况,在大规模集群的时候,有节点网络或者osd异常时,mon迟迟不把该异常的osd标down,一直等待900s后mon发现该节点的osd一直没有更新pgmap才把异常的osd标down,并更新osdmap扩散出去。但这个900s内,客户端IO还是会一直往异常的osd上去下发,导致io超时,并进一步影响上次的业务。原因分析:我们在mon的日志里面也看到了和异常
推荐 原创 2019-07-06 21:10:43
6828阅读
1点赞
1评论