# PVE Ceph 重启教程 ## 一、整体流程 为了帮助你实现 PVE Ceph 重启,以下是整个过程的步骤概览: | 步骤 | 描述 | | ------ | ------ | | 步骤 1 | 停止 Ceph 集群 | | 步骤 2 | 重启 Ceph Monitor 和 Manager 节点 | | 步骤 3 | 重启 Ceph OSD 节点 | | 步骤 4 | 检查集群状态 |
原创 7月前
523阅读
准备下面个集群一个计算集群,包含3台pve主机,只安装pve管理主机是comp1(IP:10.8.20.21)这台计算集群一个存储集群,包含4台pve主机,安装pve和内部集成的cephmgr:store1( 管理主机是store1这台 ,IP:10.8.20.11 )mon: store1 store2 store3 store4osd: store2 store3 store4ceph的存储池
原创 2019-12-12 13:52:32
4228阅读
从头开始安装debian9.8 debian-9.8.0-amd64-netinst.iso vi /etc/vim/vimrc.tinyset nocompatibleset backspace=2 一、让debian终端文件显示不同颜色vim /etc/vim/vimrc取消“syntax on
转载 2019-04-24 08:56:00
310阅读
在同一个网络内,建立了两个同名的群集 删掉其中一个后,又报下面的错,在节点视图下的syslog下看到的
转载 2019-07-11 18:59:00
549阅读
2评论
创建PVE虚拟化集群1,首先安装三台PVE主机,安装过程参考本站之前的文章。2,PVE主机安装就绪后,创建PVECluster虚拟化集群。需要通过PVE_shell创建。3,在PVE1节点执行以下命令:pvecmcreatevclusters4,在另外两个节点执行以下命令,加入集群pvecmadd192.168.77.160显示successfullyaddednode‘pve-2’toclust
pve
原创 2019-10-10 13:39:57
3471阅读
上文我们已经安装好了虚拟机,我们因为是ceph共享,所以我们模拟一下热迁移把安装的虚拟机迁移到node2上,(注意,记得把虚拟机DVD里面的ISO移除,不然迁移失败)好现在迁移没有问题,下面配置高可用,先创建个群组添加HA现在我们测试一下,现在虚拟机运行在node2上,我们等下把node2关闭,看看虚拟机是不是跑到node1或node3上面启动起来,现在我们shutdownnownode2现在虚拟
pve
原创 2019-10-10 14:50:18
2298阅读
因为没有实体机只能用虚拟机测试node1配置:2C4G20G硬盘(安装系统的)3块50G的硬盘模拟3块单独硬盘ceph分布式存储使用IP:192.168.77.160(生产坏境中存储建议万兆网络,不然千兆网络不够用,也可以多个千兆聚合)node2配置:2C4G20G硬盘(安装系统的)3块50G的硬盘模拟3块单独硬盘ceph分布式存储使用IP:192.168.77.170(生产坏境中存储建议万兆网络
pve
原创 2019-10-10 13:35:55
4648阅读
https://192.168.77.160:8006进入控制台查看一下ceph集群情况如下图:可以看到ceph集群是正常完好的全部是OK的我们添加的9个硬盘也是都可以看到的现在添加cephpve集群使用如下图:查看建立起来的情况如下图:可以看到各种情况,我们每个节点都是模拟3块50G硬盘,所以就有150可以使用,见到这些基本可以使用ceph集群来为虚拟机创建共享存储了。下面我们将在一个节点上创
pve
原创 2019-10-10 14:38:28
3912阅读
Proxmox VE的安装1. 环境准备主机规划pve1: ip: 10.0.0.11 网关:10.0.0.254 DNS: 114.114.114.114 pve2: ip: 10.0.0.12 网关:10.0.0.254 DNS: 114.114.114.114镜像proxmox-ve_5.3-2https://pan.baidu.com/s/1MiobiS13v8TwwGMbykb_hQ
常见的虚拟化软件或者云计算软件,例如vmware vSphere、Openstack、Clousstack、ovirt,都支持多节点分布式的部署方式,其中节点类型大致包括计算节点,存储节点,控制节点等等等等。比如vmware vSphere,除了esxi计算节点以外,会有一个中心控制节点vCenter,并且在vCenter上保存了整个虚拟化平台的配置信息。再比如Openstack、Cloussta
转载 2023-09-04 17:23:49
551阅读
可以在单个虚拟机web管理界面管理多台虚拟机,前提是,负责建立集群的主机名称与各台加入集群的主机名称都不能相同,而且加入集群的主机下都不能有虚拟机。如果已经相同了,那么可以逐个修改加入集群的主机名。修改/etc/hostname和/etc/hosts 这两个文件就ok 节点退出集群:1、在需要退出集群的node上停止pve-cluster 服务systemctl stop pv
转载 2023-06-26 20:55:03
533阅读
说明:当前测试环境为PVE7.0版本官网: Proxmox - Powerful open-source server solutions目录背景安装系统PCI直通配置(开启iommu) 允许kvm嵌套虚拟化取消thin块设备,扩容root根目录(可选)登录管理页面进行创建集群,加入集群操作创建虚拟机-- iso (CPU选择host模式)创建虚拟机--(img VMDK,QC
## PVE虚拟化平台配置Ceph方案 ### 背景 在使用PVE(Proxmox Virtual Environment)虚拟化平台部署虚拟机环境时,使用Ceph作为存储后端可以提供高可用性和可扩展性。本文将介绍如何在PVE虚拟化平台上配置和使用Ceph。 ### 方案 #### 步骤一:准备环境 首先,确保已经安装好PVE虚拟化平台,并具备以下条件: - 至少3台服务器作为Ceph
原创 7月前
1034阅读
服务器配置要求 CPU 每个 Ceph 服务分配一个 CPU 内核。 内存 对于大约 1 TiB 的数据,通常 OSD 将使用1 GiB 的内存。 Bluestore 后端守护进程默认需要 3-5 GiB 内存 (可调整)。 网络 建议使用至少 10 GbE 或更高的网络带宽 专供 Ceph 使用。 ...
转载 2021-09-07 08:24:00
1562阅读
2评论
搭建Ceph集群此文以Ceph octopus版本为例!如未指定,下述命令在所有节点执行!一、系统资源规划节点名称系统名称CPU/内存磁盘网卡IP地址OSDeploydeploy.ceph.local2C/4G128G+3*20Gens33192.168.0.10CentOS7Node1node1.ceph.local2C/4G128G+3*20Gens33192.168.0.11CentOS7e
作者:田逸需求产生在某地运营商机房租了几台服务器,为了节省成本,租的都是低配且年级比较大的服务器。选择其中三台做成Proxmox VE超融合集群,平台上的虚拟机配置成高可用,存储为分布式去中心化Ceph。这三个节点的配置为内存64G(16根4G单条)、6块7200转容量为2TB的低速机械盘,性能相当的差。将一些边缘业务、不太重要的应用放在这样一个性能不高的平台上,虽然运行时资源紧张(内存总使用率9
安装 PVE安装过程没啥好说的,安装好后,需要按下面这篇文章配置国内镜像源,启用 root 账户 ssh 登录:# 设置 debian 的阿里镜像源 cp /etc/apt/sources.list /etc/apt/sources.list.bak sed -i "s@\(deb\|security\).debian.org@mirrors.aliyun.com@g" /etc/apt/sour
转载 2023-08-22 23:00:55
402阅读
Ceph是一个开源的分布式存储系统,它可以将大量的存储节点组合起来,形成一个逻辑上统一的存储池。在Ceph中,集群中的每个节点都可以是OSD(Object Storage Device),负责存储和管理数据;同时还可以有一些节点作为Monitor(监视器),用来监控整个系统的运行状态和数据一致性。 在Ceph集群中,使用红帽系统搭建起来的集群是很常见的。红帽企业级操作系统提供了一系列的工具和技术
原创 5月前
24阅读
1、搭建方法-ceph-deploy:官方的部署工具 -ceph-ansible:红帽的部署工具 -ceph-chef:利用chef进行自动部署Ceph的工具 -puppet-ceph:puppet的ceph模块2、版本Mimic 13版3、部署前提1.关闭SELinux 2.关闭firewalld,并禁止开机自启 3.禁止开机自启 4.网卡 准备两块,一块公网用于对外
记录了基于cephdeploy部署分布式存储高可用集群ceph集群的管理、cephX认证、cephrbd、cephfs结合k8s的使用、crushmap、cephdashboard及prometheus监控cephhtml/xmlhttp://www.90data.net/ceph.html
原创 2022-08-07 15:19:13
248阅读
  • 1
  • 2
  • 3
  • 4
  • 5