查看PG状态

# ceph pg stat


查看PG组映射信息

# ceph pg dump


查看一个PG的map

# ceph pg map 1.2f6


查看pg详细信息

# ceph pg 1.2f6 query


查看osd的空间使用情况

# ceph osd df tree


查看pool详细信息

# ceph osd pool ls detail


查看pool状态

# ceph osd pool stats


给池指定类型

# ceph osd pool application enable {pool-name} {application-name}


查看资源池

# ceph osd lspools


查看指定节点的osd

# ceph osd tree-from node10


查看所有ceph的服务

# ceph orch ps


刷新指定节点磁盘状态


# ceph orch device ls node09 --refresh


确定 osd 的UUID

# ceph osd dump | grep osd.0 | awk '{print $NF}'


这个命令有问题,实际上没把集群删干净,不要用!!!

或者还没添加节点的时候可以用,确实把集群删掉了

# cephadm rm-cluster --fsid f64f341c-655d-11eb-8778-fa163e914bcc --force


疏散指定节点上ceph的服务,osd好像还是要自己手动删除。

# ceph orch host ls
# ceph orch host drain node05


显示池、映像或快照的磁盘使用了多少。

# rbd disk-usage --pool volumes
# rbd disk-usage volumes/volume-a53b4457-a55d-44a9-a642-575f5140a111


列出所有崩溃信息:

# ceph crash ls
# ceph crash ls-new


确认“存档”崩溃:

# ceph crash archive <crash-id>
# ceph crash archive-all


查看mgr都在哪些节点上

# ceph node ls mgr


查看自动缩放状态

# ceph osd pool autoscale-status


将块设备镜像导出

# rbd export volumes/volume-1111a4f0-4479-4bc4-88eb-329effde9ccb name.raw


统计osd的数量和osd的状态

# ceph osd stat


将主机置于维护模式和退出维护模式(停止主机上的所有 Ceph 守护进程):

# 进入维护模式
# ceph orch host maintenance enter <hostname> [--force]
ceph orch host maintenance enter local-168-182-130

# 退出维护模式
# ceph orch host maintenance exit <hostname>
ceph orch host maintenance exit local-168-182-130