目录简介OSDMapPG 和 PGMapOSDMap 机制浅析OSDMap 代码浅析二、OSDMap模块数据结构1.osd_info_t2.osd_xinfo_t3.OSDMap4.Incremental三、MOSDMap消息四、OSDMap更新机制五、OSDMap要点分析
转载 2022-04-28 12:59:00
914阅读
1. 模块简介Monitor 作为Ceph的 Metada Server 维护了集群的信息,它包括了6个 Map,分别是 MONMap,OSDMap,PGMap,LogMap,AuthMap,MDSMap。其中 PGMap 和 OSDMap 是最重要的两张Map。2. 模块的基本结构image.pngMonitor内部使用一套Paxos来实现各种数据的更新...
原创 2021-04-20 10:22:07
612阅读
跟踪代码发现由于配置的pluginName都是同一个name应用在了不同的extensonPoint上,所以在初始化的时候被覆盖掉。 func (f *framework) pluginsNeeded(plugins *config.Plugins) map[string]config.Plugin { pgMap := make(map[string]config.Plugin)
转载 2023-06-30 09:40:09
32阅读
一、ceph部署组件osd:用于存储数据,检测其他osd心跳,向monitor提供监控信息 Monitor:维护展示集群状态的各种图表 Mds:元数据服务器,为ceph文件系统存储元数据 其他: PG(归属组)、monmap、pgmap、fsmap、osdmap环境172.16.1.194 admin/osd/mon 172.16.1.193 osd/mds 172.16.1.191 osd/
Ceph存储基本架构:Ceph存储根据其类型,可分为块存储,对象存储和文件存储。Ceph基于对象存储,对外提供三种存储接口,故称为统一存储。Ceph的底层是RADOS(分布式对象存储系统),RADOS系统主要由两部分组成,分别是OSD和MON。MON负责监控整个集群,维护集群的健康状态,维护展示集群状态的各种图表,如OSDMap、MonitorMap、PGMap和CRUSHMap。OSD则用于存储
Ceph存储可分为块存储,对象存储和文件存储。Ceph基于对象存储,对外提供三种存储接口,故称为统一存储。 Ceph的底层是RADOS(分布式对象存储系统),RADOS由两部分组成:OSD和MON。 MON负责监控整个集群,维护集群的健康状态,维护展示集群状态的各种图表,如OSDMap、MonitorMap、PGMap和CRUSHMap。 OSD负责存储数据、复制数据、平衡数据、恢复数据,与其它OSD间进行心跳检查等。通常情况下一块硬盘对应一个OSD。
现象:部署使用ceph集群的时候遇到一个情况,在大规模集群的时候,有节点网络或者osd异常时,mon迟迟不把该异常的osd标down,一直等待900s后mon发现该节点的osd一直没有更新pgmap才把异常的osd标down,并更新osdmap扩散出去。但这个900s内,客户端IO还是会一直往异常的osd上去下发,导致io超时,并进一步影响上次的业务。原因分析:我们在mon的日志里面也看到了和异常
推荐 原创 2019-07-06 21:10:43
6828阅读
1点赞
1评论