Ceph之块存储
存储池: pools(水池)
  现阶段环境说明:沿上配置:进行操作
  在创建好存储磁盘后,默认创建一个编号为0的存储池。可用命令:ceph osd lspools 查看。

  查看镜像
  rbd list
  创建镜像
  rbd create demo-image --size 10G
  vbd create rbd/jacob --size 10G //指定rbd为池
  列出所有镜像
  rbd list
  查看这个镜像的详细信息
  rbd info demo-image(镜像名)

二、动态调整(调整镜像的大小)
  rbd resize --size 15G jacob //调整jacob的镜像指定扩容到15G
  rbd info jacob //查看镜像详细信息
  rbd resize --size 7G jacob --allow-shrink //将jacob镜像缩减到指定大小。
    //当如把镜像缩小时,因数据会丢失,则需要加 --allow-shrink 标签即可。

三、客户端访问
  yum -y install ceph-common 客户端需要安装ceph-common软件包
  scp 192.168.4.11:/etc/ceph/ceph.conf /etc/ceph/
  scp 192.168.4.11:/etc/ceph/ceph.client.admin.keyring /etc/ceph/ 拷贝配置文件(否则不知道集群在哪 拷贝连接密钥(否则无连接权限)

  rbd map jacob #客户端访问映射服务器的jacob共享镜像
  lsblk #查看结果(会多一块磁盘)
  rbd showmapped #查看磁盘名和共享镜像名称的对应关系
此时的磁盘是个网络磁盘,必须格式化,挂载,才可以写入数据。且写入的数据并不存在自身的主机,而是存在node1\node2\node3里面
  mkfs.xfs /dev/rbd0 #格式化,格式为xfs
  echo "test" > /mnt/test.txt //写入数据
  rbd showmapped //可查看该磁盘由那个池以及镜像提供。


删除镜像:思路,由于磁盘时挂载使用的,所以需要在客户端进行卸载,并且取消镜像的映射。
  客户端操作:
    1)卸载访问点
    umount /mnt/rbd/ //操作完可用lsblk查看
    2)取消映射
    rbd unmap /dev/rbd0 //操作完可用lsblk查看

 

Ceph之块存储:
缺点:同一时刻,只能允许一个客户端读取数据。
也不能同时挂载,否则会造成文件丢失
一、创建镜像快照
  OSD的三个备份,也敌不过人为的删除。所以引入快照的概念。
  现环境状况,沿上案例继续进行。

1)快照的概念:基于当前的镜像创建一个快照(可不用格式化,直接操作)
  rbd snap ls jacob /查看某个镜像名称
  Mon(node1)端
2) rbd snap create jacob --snap jacob-snap1 //给jacob镜像创建一个叫jacob-snap1的快照镜像
  rbd snap ls jacob //查看jacob的快照 //#为jacob镜像创建快照,--snap指定快照名称,快照名称为jacob-snap1,快照名称可以任意

客户端 :
  rbd map jacob #客户端访问映射服务器的jacob共享镜像
  mount /dev/rbd0 /mnt/rbd/ //挂载
  cd /mnt/rbd/ //进入挂载的目录
3) rm -rf /mnt/rbd/* //删除里面的所有文件,此时该盘内不存在任何文件。


4)还原快照
  在还原快照之前,先把client端的网络磁盘卸载。否则还原的时候会出现问题
  rbd snap rollback jacob --snap jacob-snap1 //还原快照

二、创建快照克隆
  因在克隆快照镜像的时候,被克隆的镜像不能被删除,所以得保护快照并且不做任何操作。
  rbd snap protect jacob --snap jacob-snap1 //保护快照,jacob是镜像名称,jacob-snap1是前面创建的快照(被保护的快照,不可以被删除)
  rbd snap rm jacob --snap jacob-snap1 #删除被保护的快照,会失败
  rbd clone jacob --snap jacob-snap1 jacob-clone --image-feature layering //使用jacob镜像的快照jacob-snap1克隆一个新的名称为jacob-clone的镜像,新镜像名称可以任意

  rbd info jacob //原始的镜像
  rbd info jacob-clone //克隆原始的镜像
  rbd info 镜像名 //可用此命令查看,jacob与jacob-clone的详细信息
  rbd flatten jacob-clone //将现在的克隆镜像,取消与它父亲之间的关联
  rbd 选项:flatten //flatten:解释 Fill clone with parent data (make itindependent).
  rbd --help 可查看所有选项 ^// 用父数据填充克隆(使其独立)


Ceph文件系统存储:
现环境状况,沿上案例继续进行。
一个文件系统由:inode和block两部分构成
inode:存储元数据(metadata元数据),存的是block的(目录)信息。
block存储真正的数据

优点:支持多人使用

1)装包:ceph-dms //选择一个节点来进行装包及控制
2)ceph-deploy mds create node1 //远程nod1,拷贝集群配置文件,启动mds服务
3)ceph osd pool create cephfs_data 64 //创建存储池,共享池的名称为cephfs_data,对应有64个PG,共享池名称可以任意
4)ceph osd pool create cephfs_metadata 64 //创建存储池,共享池的名称为cephfs_metadata,对应有64个PG
5)ceph fs new myfxl cephfs_metadata cephfs_data //创建ceph文件系统,#myfs1是名称,名称可以任意,注意,先写metadata池,再写data池,fs是filesystem的缩写,filesystem中文是文件系统,默认,只能创建1个文件系统,多余的会报错
6)ceph fs ls //查看文件系统此时的状态

客户端操作:
挂载使用
 1)mount -t ceph 192.168.4.11:6789:/ /mnt/ceph -o name=admin,secret=AQC2tElgvRqyKhAA/RvZdiFGfZ5hcUsWB6gRMQ=
=
  //#注意:-t(type)指定文件系统类型,文件系统类型为ceph
  #-o(option)指定mount挂载命令的选项,选项包括name账户名和secret密码
  #192.168.4.11为MON节点的IP(不是MDS节点),6789是MON服务的端口号
  #admin是用户名,secret后面是密钥
  #密钥可以在/etc/ceph/ceph.client.admin.keyring中找到
报错集:
1:密码不对 //坏的超级块,block
2:用户名不对,权限不足 //(perrmission deined)
3:ecph-mds.target服务没有启动 //(设备不存在,don`t exits)
4:服务有,没有文件系统。 //卡死