【●】集群与存储
一、Ceph
  基础知识
1.分布式存储
●分布式存储,是一种存储方式,区别于目前已经成熟的中心化存储,指的是通过网络使用分布式存储系统内的每一个本地存储空间,即将文件数据分散存储在多个独立的节点上。
●它通常采用可扩展的系统,利用多台服务器分担存储负荷,快速、安全、稳定,并且扩展空间极高
●分布式是指一种独特的系统架构,它由一组网络进行通信、为了完成共同的任务而协调工作的计算机节点组成
●分布式系统是为了用廉价的、普通的机器完成单个计算机无法完成的计算、存储任务
●其目的就是利用更多的机器,处理更多的数据

2.常用分布式文件系统
●Lustre
●Hadoop
●FastDFS
●Ceph
●GlusterFS

3.Ceph
●Ceph是一个分布式存储系统
●具有高扩展、高可用、高性能的特点
●Ceph可以提供对象存储、块存储、文件系统存储
●Ceph可以提供PB级别的存储空间(PB->TB->GB)
—1024G*1024G=1048576G
●软件定义存储作为存储行业的一大发展趋势,已经越来越受到市场的认可

4.Ceph组件
●OSDs(ceph-osd)
—存储设备
●Monitors(ceph-mon)   #过半原理,否则集群崩溃
—集群监控组件
●RadosGateway(RGW,ceph-radosgw)
—对象存储网关
●MDSs(ceph-mds)
—存放文件系统的元数据(对象存储和块存储不需要该组件)
●Client(ceph-common)
—ceph客户端

二、Ceph实验环境准备
步骤一:安装前准备
1)为所有节点配置yum源服务器。
将真机第二阶段素材中的ceph10.iso挂载到/var/ftp/ceph目录,为所有虚拟机提供YUM源

2)为虚拟机添加磁盘:
除了client客户端,所有3台ceph服务器都添加2块20G磁盘。

[root@client ~]# lsblk                 #没有额外磁盘
 [root@node1 ~]# lsblk                  #多了2块磁盘
 [root@node2 ~]# lsblk                  #多了2块磁盘
 [root@node3 ~]# lsblk                  #多了2块磁盘

3)所有主机设置防火墙和SELinux(如果已经关闭,则此步骤可以忽略)

[root@client ~]# firewall-cmd --set-default-zone=trusted
 [root@client ~]# sed -i '/SELINUX/s/enforcing/permissive/' /etc/selinux/config
 [root@client ~]# setenforce 0[root@node1 ~]# firewall-cmd --set-default-zone=trusted
 [root@node1 ~]# sed -i '/SELINUX/s/enforcing/permissive/' /etc/selinux/config
 [root@node1 ~]# setenforce 0[root@node2 ~]# firewall-cmd --set-default-zone=trusted
 [root@node2 ~]# sed -i '/SELINUX/s/enforcing/permissive/' /etc/selinux/config
 [root@node2 ~]# setenforce 0[root@node3 ~]# firewall-cmd --set-default-zone=trusted
 [root@node3 ~]# sed -i '/SELINUX/s/enforcing/permissive/' /etc/selinux/config
 [root@node3 ~]# setenforce 0

4)配置无密码连接(包括自己远程自己也不需要密码),在node1操作。

[root@node1 ~]# ssh-keygen   -f /root/.ssh/id_rsa    -N ''
 # -f   后面跟密钥的文件名称(希望创建密钥到哪个文件)
   -N '' 代表不给密钥配置密钥(不能给密钥配置密码)
 [root@node1 ~]# for i in 10  11  12  13
  do
      ssh-copy-id  192.168.4.$i
  done
 #通过ssh-copy-id将密钥传递给192.168.4.10、192.168.4.11、192.168.4.12、192.168.4.13

5)修改/etc/hosts并同步到所有主机。  #  /etc/hosts解析的域名要与本机主机名一致。

[root@node1 ~]# vim /etc/hosts     #修改文件,手动添加如下内容(不要删除文件原有内容)
 ... ...
 192.168.4.10     client
 192.168.4.11     node1
 192.168.4.12     node2
 192.168.4.13     node3将/etc/hosts文件拷贝给所有其他主机(client、node1、node2、node3)
 [root@node1 ~]# for i in client node1  node2  node3
 do
 scp  /etc/hosts   $i:/etc/
 done

6)修改所有节点都需要配置YUM源,并同步到所有主机。

[root@node1 ~]# vim /etc/yum.repos.d/ceph.repo    #新建YUM源配置文件,内容如下
 [mon]
 name=mon
 baseurl=ftp://192.168.4.254/ceph/MON
 gpgcheck=0
 [osd]
 name=osd
 baseurl=ftp://192.168.4.254/ceph/OSD
 gpgcheck=0
 [tools]
 name=tools
 baseurl=ftp://192.168.4.254/ceph/Tools
 gpgcheck=0[root@node1 ~]# yum clean all               #清空缓存
 [root@node1 ~]# yum repolist                #验证YUM源软件数量
 源标识            源名称                    状态
 Dvd                redhat                    9,911
 Mon                mon                        41
 Osd                osd                        28
 Tools            tools                    33
 repolist: 10,013[root@node1 ~]# for i in  client  node1  node2  node3
 do
 scp  /etc/yum.repos.d/ceph.repo   $i:/etc/yum.repos.d/
 done

7)给所有节点安装ceph相关软件包。

[root@node1 ceph-cluster]# for i in node1 node2 node3
 do
     ssh  $i "yum -y install ceph-mon ceph-osd ceph-mds ceph-radosgw"
 done

8)Client主机配置NTP服务器。

[root@client ~]# yum -y install chrony
 [root@client ~]# vim /etc/chrony.conf
     allow 192.168.4.0/24        #大约26行
     local stratum 10            #大约29行(去注释即可)
 [root@client ~]# systemctl restart chronyd

9)node1,node2,node3修改NTP客户端配置。

[root@node1 ~]# yum -y install chrony
 [root@node1 ~]# vim /etc/chrony.conf
 server 192.168.4.10   iburst              #配置文件第二行,手动添加一行新内容
 [root@node1 ~]# systemctl restart chronyd
 [root@node1 ~]# chronyc sources -v        #查看同步结果,应该是^*[root@node2 ~]# yum -y install chrony
 [root@node2 ~]# vim /etc/chrony.conf
 server 192.168.4.10   iburst              #配置文件第二行,手动添加一行新内容
 [root@node2 ~]# systemctl restart chronyd
 [root@node2 ~]# chronyc sources -v            #查看同步结果,应该是^*[root@node3 ~]# yum -y install chrony
 [root@node3 ~]# vim /etc/chrony.conf
 server 192.168.4.10   iburst              #配置文件第二行,手动添加一行新内容
 [root@node3 ~]# systemctl restart chronyd
 [root@node3 ~]# chronyc sources -v       #查看同步结果,应该是^*


--------------------------------------------------------------------
三、部署ceph集群
步骤一:安装部署软件ceph-deploy
1)在node1安装部署工具,学习工具的语法格式。

[root@node1 ~]#  yum -y install ceph-deploy
 [root@node1 ~]#  ceph-deploy  --help
 [root@node1 ~]#  ceph-deploy mon --help

2)创建目录(目录名称可以任意,推荐与案例一致)

[root@node1 ~]#  mkdir ceph-cluster
 [root@node1 ~]#  cd ceph-cluster/

步骤二:部署Ceph集群
1)创建Ceph集群配置,在ceph-cluster目录下生成Ceph配置文件(ceph.conf)。
在ceph.conf配置文件中定义monitor主机是谁。

[root@node1 ceph-cluster]# ceph-deploy new node1 node2 node3
 [root@node1 ceph-cluster]# vim ceph.conf        #不要修改原始内容,在文件末尾添加一行
 rbd_default_features = 1                                       #默认开启COW分层快照的功能 1为打开 0为未打开

2)初始化所有节点的mon服务,也就是启动mon服务。
拷贝当前目录的配置文件到所有节点的/etc/ceph/目录并启动mon服务。

[root@node1 ceph-cluster]# ceph-deploy mon create-initial            #配置文件ceph.conf中有三个mon的IP,ceph-deploy脚本知道自己应该远程谁

3) 在每个node主机查看自己的服务[启动(start)、重启(restart)、关闭(stop),查看状态(status)]

[root@node1 ceph-cluster]# systemctl status ceph-mon@node1
 [root@node2 ~]# systemctl status ceph-mon@node2
 [root@node3 ~]# systemctl status ceph-mon@node3
 #这些服务在30分钟只能启动3次,超过就报错. 
 #StartLimitInterval=30min
 #StartLimitBurst=3
 #在这个文件中有定义/usr/lib/systemd/system/ceph-mon@.service
 #如果修改该文件,需要执行命令# systemctl  daemon-reload重新加载配置

4)查看ceph集群状态(现在状态应该是health HEALTH_ERR)

[root@node1 ceph-cluster]# ceph -s

●错误提示:如果无法成功部署ceph集群,可以通过如下命令清理集群软件以及相关数据(注意,这些操作会删除node1-node3主机的所有ceph软件及配置文件等数据,非必要不要操作!!)。

[root@node1 ceph-cluster]# ceph-deploy  purge  node1  node2  node3
 [root@node1 ceph-cluster]# ceph-deploy  purgedata  node1  node2  node3

步骤三:创建OSD
1) 初始化清空磁盘数据(仅node1操作即可)。
初始化磁盘,将所有磁盘分区格式设置为GPT格式(根据实际情况填写磁盘名称)。

[root@node1 ceph-cluster]# ceph-deploy disk  zap  node1:sdb   node1:sdc   
 [root@node1 ceph-cluster]# ceph-deploy disk  zap  node2:sdb   node2:sdc
 [root@node1 ceph-cluster]# ceph-deploy disk  zap  node3:sdb   node3:sdc  
 #相当于ssh 远程node1,在node1执行parted /dev/sdb  mktable  gpt
 #其他主机都是一样的操作

●  ceph-deploy是个脚本,这个脚本会自动ssh远程自动创建gpt分区

# vim test.sh
 #!/bin/bash
 case $1 in
 user)
      useradd -u 1000 $2;;
 disk)
      parted  /dev/$2  mktable  gpt;;
 esac
 # chmod +x test.sh
 # ./test.sh  user  jerry
 # ./test.sh  disk  vdc

2)创建OSD存储空间(仅node1操作即可)
远程所有node主机,创建分区,格式化磁盘,挂载磁盘,启动osd服务共享磁盘。

● ceph-deploy是个脚本,脚本会自动创建分区、格式化、挂载!

[root@node1 ceph-cluster]# ceph-deploy osd create node1:sdb  node1:sdc
 [root@node1 ceph-cluster]# ceph-deploy osd create node2:sdb  node2:sdc
 [root@node1 ceph-cluster]# ceph-deploy osd create node3:sdb  node3:sdc
 #每个磁盘都会被自动分成两个分区;一个固定5G大小;一个为剩余所有容量
 #5G分区为Journal日志缓存;剩余所有空间为数据盘。

●  验证分区

[root@node1 ~]# df -Th
 [root@node2 ~]# df -Th
 [root@node3 ~]# df -Th

3)在三台不同的主机查看OSD服务状态,可以开启、关闭、重启服务。启动(start)、重启(restart)、关闭(stop),查看状态(status)。

[root@node1 ~]# systemctl status ceph-osd@0
 [root@node2 ~]# systemctl status ceph-osd@2
 [root@node3 ~]# systemctl status ceph-osd@4

● 这些服务在30分钟只能启动3次,超过就报错.

#在这个文件中有定义/usr/lib/systemd/system/ceph-osd@.service
 #如果修改该文件,需要执行命令# systemctl  daemon-reload重新加载配置
 #StartLimitInterval=30min
 #StartLimitBurst=3

步骤四:验证测试
1) 查看集群状态。

[root@node1 ~]#  ceph  -s
 [root@node1 ~]#  ceph   osd   tree