查看PG状态
# ceph pg stat
查看PG组映射信息
# ceph pg dump
查看一个PG的map
# ceph pg map 1.2f6
查看pg详细信息
# ceph pg 1.2f6 query
查看osd的空间使用情况
# ceph osd df tree
查看pool详细信息
# ceph osd pool ls detail
查看pool状态
# ceph osd pool stats
给池指定类型
# ceph osd pool application enable {pool-name} {application-name}
查看资源池
# ceph osd lspools
查看指定节点的osd
# ceph osd tree-from node10
查看所有ceph的服务
# ceph orch ps
刷新指定节点磁盘状态
# ceph orch device ls node09 --refresh
确定 osd 的UUID
# ceph osd dump | grep osd.0 | awk '{print $NF}'
这个命令有问题,实际上没把集群删干净,不要用!!!
或者还没添加节点的时候可以用,确实把集群删掉了
# cephadm rm-cluster --fsid f64f341c-655d-11eb-8778-fa163e914bcc --force
疏散指定节点上ceph的服务,osd好像还是要自己手动删除。
# ceph orch host ls
# ceph orch host drain node05
显示池、映像或快照的磁盘使用了多少。
# rbd disk-usage --pool volumes
# rbd disk-usage volumes/volume-a53b4457-a55d-44a9-a642-575f5140a111
列出所有崩溃信息:
# ceph crash ls
# ceph crash ls-new
确认“存档”崩溃:
# ceph crash archive <crash-id>
# ceph crash archive-all
查看mgr都在哪些节点上
# ceph node ls mgr
查看自动缩放状态
# ceph osd pool autoscale-status
将块设备镜像导出
# rbd export volumes/volume-1111a4f0-4479-4bc4-88eb-329effde9ccb name.raw
统计osd的数量和osd的状态
# ceph osd stat
将主机置于维护模式和退出维护模式(停止主机上的所有 Ceph 守护进程):
# 进入维护模式
# ceph orch host maintenance enter <hostname> [--force]
ceph orch host maintenance enter local-168-182-130
# 退出维护模式
# ceph orch host maintenance exit <hostname>
ceph orch host maintenance exit local-168-182-130