# PVE Ceph 重启教程
## 一、整体流程
为了帮助你实现 PVE Ceph 重启,以下是整个过程的步骤概览:
| 步骤 | 描述 |
| ------ | ------ |
| 步骤 1 | 停止 Ceph 集群 |
| 步骤 2 | 重启 Ceph Monitor 和 Manager 节点 |
| 步骤 3 | 重启 Ceph OSD 节点 |
| 步骤 4 | 检查集群状态 |
准备下面个集群一个计算集群,包含3台pve主机,只安装pve管理主机是comp1(IP:10.8.20.21)这台计算集群一个存储集群,包含4台pve主机,安装pve和内部集成的cephmgr:store1( 管理主机是store1这台 ,IP:10.8.20.11 )mon: store1 store2 store3 store4osd: store2 store3 store4ceph的存储池
原创
2019-12-12 13:52:32
4228阅读
从头开始安装debian9.8 debian-9.8.0-amd64-netinst.iso vi /etc/vim/vimrc.tinyset nocompatibleset backspace=2 一、让debian终端文件显示不同颜色vim /etc/vim/vimrc取消“syntax on
转载
2019-04-24 08:56:00
310阅读
在同一个网络内,建立了两个同名的群集 删掉其中一个后,又报下面的错,在节点视图下的syslog下看到的
转载
2019-07-11 18:59:00
549阅读
2评论
创建PVE虚拟化集群1,首先安装三台PVE主机,安装过程参考本站之前的文章。2,PVE主机安装就绪后,创建PVECluster虚拟化集群。需要通过PVE_shell创建。3,在PVE1节点执行以下命令:pvecmcreatevclusters4,在另外两个节点执行以下命令,加入集群pvecmadd192.168.77.160显示successfullyaddednode‘pve-2’toclust
原创
2019-10-10 13:39:57
3471阅读
上文我们已经安装好了虚拟机,我们因为是ceph共享,所以我们模拟一下热迁移把安装的虚拟机迁移到node2上,(注意,记得把虚拟机DVD里面的ISO移除,不然迁移失败)好现在迁移没有问题,下面配置高可用,先创建个群组添加HA现在我们测试一下,现在虚拟机运行在node2上,我们等下把node2关闭,看看虚拟机是不是跑到node1或node3上面启动起来,现在我们shutdownnownode2现在虚拟
原创
2019-10-10 14:50:18
2298阅读
因为没有实体机只能用虚拟机测试node1配置:2C4G20G硬盘(安装系统的)3块50G的硬盘模拟3块单独硬盘ceph分布式存储使用IP:192.168.77.160(生产坏境中存储建议万兆网络,不然千兆网络不够用,也可以多个千兆聚合)node2配置:2C4G20G硬盘(安装系统的)3块50G的硬盘模拟3块单独硬盘ceph分布式存储使用IP:192.168.77.170(生产坏境中存储建议万兆网络
原创
2019-10-10 13:35:55
4648阅读
https://192.168.77.160:8006进入控制台查看一下ceph集群情况如下图:可以看到ceph集群是正常完好的全部是OK的我们添加的9个硬盘也是都可以看到的现在添加ceph到pve集群使用如下图:查看建立起来的情况如下图:可以看到各种情况,我们每个节点都是模拟3块50G硬盘,所以就有150可以使用,见到这些基本可以使用ceph集群来为虚拟机创建共享存储了。下面我们将在一个节点上创
原创
2019-10-10 14:38:28
3912阅读
Proxmox VE的安装1. 环境准备主机规划pve1:
ip: 10.0.0.11
网关:10.0.0.254
DNS: 114.114.114.114
pve2:
ip: 10.0.0.12
网关:10.0.0.254
DNS: 114.114.114.114镜像proxmox-ve_5.3-2https://pan.baidu.com/s/1MiobiS13v8TwwGMbykb_hQ
常见的虚拟化软件或者云计算软件,例如vmware vSphere、Openstack、Clousstack、ovirt,都支持多节点分布式的部署方式,其中节点类型大致包括计算节点,存储节点,控制节点等等等等。比如vmware vSphere,除了esxi计算节点以外,会有一个中心控制节点vCenter,并且在vCenter上保存了整个虚拟化平台的配置信息。再比如Openstack、Cloussta
转载
2023-09-04 17:23:49
551阅读
可以在单个虚拟机web管理界面管理多台虚拟机,前提是,负责建立集群的主机名称与各台加入集群的主机名称都不能相同,而且加入集群的主机下都不能有虚拟机。如果已经相同了,那么可以逐个修改加入集群的主机名。修改/etc/hostname和/etc/hosts 这两个文件就ok 节点退出集群:1、在需要退出集群的node上停止pve-cluster 服务systemctl stop pv
转载
2023-06-26 20:55:03
533阅读
说明:当前测试环境为PVE7.0版本官网: Proxmox - Powerful open-source server solutions目录背景安装系统PCI直通配置(开启iommu) 允许kvm嵌套虚拟化取消thin块设备,扩容root根目录(可选)登录管理页面进行创建集群,加入集群操作创建虚拟机-- iso (CPU选择host模式)创建虚拟机--(img VMDK,QC
## PVE虚拟化平台配置Ceph方案
### 背景
在使用PVE(Proxmox Virtual Environment)虚拟化平台部署虚拟机环境时,使用Ceph作为存储后端可以提供高可用性和可扩展性。本文将介绍如何在PVE虚拟化平台上配置和使用Ceph。
### 方案
#### 步骤一:准备环境
首先,确保已经安装好PVE虚拟化平台,并具备以下条件:
- 至少3台服务器作为Ceph
服务器配置要求 CPU 每个 Ceph 服务分配一个 CPU 内核。 内存 对于大约 1 TiB 的数据,通常 OSD 将使用1 GiB 的内存。 Bluestore 后端守护进程默认需要 3-5 GiB 内存 (可调整)。 网络 建议使用至少 10 GbE 或更高的网络带宽 专供 Ceph 使用。 ...
转载
2021-09-07 08:24:00
1562阅读
2评论
搭建Ceph集群此文以Ceph octopus版本为例!如未指定,下述命令在所有节点执行!一、系统资源规划节点名称系统名称CPU/内存磁盘网卡IP地址OSDeploydeploy.ceph.local2C/4G128G+3*20Gens33192.168.0.10CentOS7Node1node1.ceph.local2C/4G128G+3*20Gens33192.168.0.11CentOS7e
作者:田逸需求产生在某地运营商机房租了几台服务器,为了节省成本,租的都是低配且年级比较大的服务器。选择其中三台做成Proxmox VE超融合集群,平台上的虚拟机配置成高可用,存储为分布式去中心化Ceph。这三个节点的配置为内存64G(16根4G单条)、6块7200转容量为2TB的低速机械盘,性能相当的差。将一些边缘业务、不太重要的应用放在这样一个性能不高的平台上,虽然运行时资源紧张(内存总使用率9
安装 PVE安装过程没啥好说的,安装好后,需要按下面这篇文章配置国内镜像源,启用 root 账户 ssh 登录:# 设置 debian 的阿里镜像源
cp /etc/apt/sources.list /etc/apt/sources.list.bak
sed -i "s@\(deb\|security\).debian.org@mirrors.aliyun.com@g" /etc/apt/sour
转载
2023-08-22 23:00:55
402阅读
Ceph是一个开源的分布式存储系统,它可以将大量的存储节点组合起来,形成一个逻辑上统一的存储池。在Ceph中,集群中的每个节点都可以是OSD(Object Storage Device),负责存储和管理数据;同时还可以有一些节点作为Monitor(监视器),用来监控整个系统的运行状态和数据一致性。
在Ceph集群中,使用红帽系统搭建起来的集群是很常见的。红帽企业级操作系统提供了一系列的工具和技术
1、搭建方法-ceph-deploy:官方的部署工具
-ceph-ansible:红帽的部署工具
-ceph-chef:利用chef进行自动部署Ceph的工具
-puppet-ceph:puppet的ceph模块2、版本Mimic 13版3、部署前提1.关闭SELinux
2.关闭firewalld,并禁止开机自启
3.禁止开机自启
4.网卡 准备两块,一块公网用于对外
记录了基于cephdeploy部署分布式存储高可用集群、ceph集群的管理、cephX认证、cephrbd、cephfs结合k8s的使用、crushmap、cephdashboard及prometheus监控cephhtml/xmlhttp://www.90data.net/ceph.html
原创
2022-08-07 15:19:13
248阅读