手机随时阅读
新人专享大礼包¥24
开源私有云全能冠军proxmox,一键安装,一条指令即可建立起集群。不借助外挂存储,不需要什么控制中心,谁都可以做老大,死了谁都不要紧。用了好长一段时间,把服务器虚拟化与桌面虚拟化整合到一起,这才是真超融合呢!
接到一个求助电话,说是有个阿里云上的服务器,有性能瓶颈,但又没有什么具体的数据,只是说偶尔客户端有少数连接不上,或者连接会突然中断。我的天,最怕这种状况了,还得自己去找问题表现是什么,再去找什么原因所致。因为是线上的环境,得分两步进行。先检查,看系统或者应用存在什么明显的印迹,分析原因和处理方法;协商什么时候可以处理,处理风险是什么。怕影响用户体验,白天还不让搞。月黑风高,家里有没暖气啊(用一块闲
发件人: 周** 发送时间: 2011-03-04 18:54:37 收件人: sery 抄送: 主题: 请教问题 我看你们的服务器的连接都是比较正常的 [root@381263 conf]# netstat -n |&n
作者:田逸(vx:formyz) 场景描述 当Proxmox VE集群中有节点损坏无法快速修复时,需要将故障节点干净的从集群踢出,并把残留信息清理干净。否则,新的节点用故障节点曾使用用的IP的地址将不能正常加入集群;同样,从集群中脱离出来的故障节点修复后,虽然与集群已经毫无关系,但访问此单节点的Web管理后台,将出现原Proxmox VE集群其它节点的信息,非常恼火。从集群中驱
作者:田逸(vx:formyz)需求产生在某地运营商机房租了几台服务器,为了节省成本,租的都是低配且年级比较大的服务器。选择其中三台做成ProxmoxVE超融合集群,平台上的虚拟机配置成高可用,存储为分布式去中心化Ceph。这三个节点的配置为内存64G(16根4G单条)、6块7200转容量为2TB的低速机械盘,性能相当的差。将一些边缘业务、不太重要的应用放在这样一个性能不高的平台上,虽然运行时资
作者:田逸(formyz)江湖救急,一老友告知,一运行Gitlab的主机负载很高,并且把整个出口带宽都耗尽了,希帮忙处理。根据经验,直接答复“很可能被挖矿了”。在取得系统权限以后,登录到该系统。查看系统进程,除了发现挖矿进程“xmrig”外,还有两个命名怪异的进程“diofiglos”与“cacascqw”。试着用kill指令绞杀挖矿进程“xmrig”,杀掉一个又再启动一个,无法消灭之。是不是有
将阿里云上的RDS MySQL数据迁移到自建的服务器或者虚拟机,如果需要尽可能小的停机时间或者不停服务,那么至少需要做分两个步骤来完成:本地MySQL与RDS MySQL进行数据库同步及验证数据一致后将从库变成主库。其中比较麻烦的事情是本地MySQL与RDS做主从,因为与完整的MySQL主从同步相比,RDS 限制很多。因数据库角色切换比较简单,所以本文仅介绍主从同步第一步:备份RDS数据登录阿里云
出版社的美编,给了好几个板式,个人觉得有点像教材啊。
一单节点pve,版本为7.0,顺手刷了一下更新,升级到版本7.1。因为对其中的一个Centos 7虚拟机执行了yum update,重启此虚拟机,启动失败,尝试多次皆如此。kvm: -drive file=/dev/pve/vm-102-disk-2,if=none,id=drive-scsi1,cache=writeback,format=raw,aio=io_uring,detect-zero
作者:田逸(vx formyz)需求的产生在一个高配置的Proxmox VE 超融合集群中,为充分利用资源,需要按某种需求将虚拟机之间进行网络隔离,以支持更大规模的场景。网络虚拟化基本条件ü 支持VLAN的网络交换机。ü Proxmox VE 安装openvswitch-switch。ü 多网卡服务器。交换机配置我这里用的交换机是Cisco Catalyst 4500,具体的步骤是如下:1、
作者:田逸(vx:formyz)创建多Ceph Pool的目的Proxmox VE集群上的虚拟机运行在高速磁盘NVME,而虚拟机附属的数据,则指定到低速、廉价、容量大的磁盘空间。为了高可用性,充分利用资源,需要让除Proxmox VE宿主二外的数据都运行在Ceph分布式存储上。 解决思路把高速的NVMe(或者其它固态磁盘SSD)多磁盘做成一个Ceph
Proxmox 提供了“proxmox-backup-client”针对Centos7和Centos 8的rpm封装包,其下载地址为 https://github.com/sg4r/proxmox-backup-client/releases/download/v1.0.11/proxmox-backup-1.0.11-2.x86_64.el7.rpm 。在Centos 7.8版本安装这个
第1章 老司机眼中的私有云... 3 1.1私有云的定义... 3 1.2私有云适用场景... 4 1.3私有云行业现状... 6 1.4私有云技术要求(针对Proxmox VE平台)... 7 第2章 开源私有云神器Proxmox VE. 8 2.1 Proxmox VE主要特征... 8 2.2 Proxmox VE主要功能... 10 2.3服务与支持... 18 2.4题外话... 19
作者:田逸(vx:formyz) 在我管控的项目里,有Proxmox VE集群,也有些单独的PVE。我打算把集群上的虚拟机、单机PVE上的虚拟机,都备份到同一个大容量存储。这样规划,即能有效利用资源,又能大幅度节省成本,同时也降低了管理成本。假使每个PVE都对应一个备份存储系统,管理成本增加不少。为保证备份数据可靠性,再增加一个存储,对备份数据进行同步,几乎万无一失。整体结构如下图所示,可供大家参
目录 第1章 监控那些事... 3 1.1我的监控之旅... 3 1.2监控的分类... 6 1.3有效监控... 6 1.4经验之谈... 7 第2章 认识开源分布式监控平台Centreon. 8 2.1 Centreon主要特征... 9 2.2 Centreon主要组成部分... 12 2.2.1操作系统CentOS. 12 2.2.2数据库MySQL. 12 2.2.3 WEB服务器Apa
今天终于把Proxmox VE(简称PVE)从6.1版本升级到PVE 6.4版本,在Web管理后台对比PVE 6.4与 PVE 6.1,看新增哪些功能?在数据中心的菜单项里,多了一个度量服务器(Metric Server),中文显示“公制服务器”,翻译得怪怪的。 挡不住好奇,点进去看看,原来是添加远程数据统计服务器InfluxDB或者Graphite。 既然可以添加InfluxDB,那么在此基
作者:田逸(vx:formyz) 与NFS备份Proxmox VE上的虚拟机或容器相比较,PBS(Proxmox Backup Server)的效率要高很多,特别是备份速度。虽然如此,但我担心PBS可用性问题,万一PBS数据丢失,后果不堪设想。而用NFS做备份,则可用rsync把备份数据同步到另外一个系统上,从使PVE至少有两个异地副本。 昨天,把PBS从1.X升级到2.X,升级完后,在Web
现在手里有一个版本号为pbs1.0-1的系统,鉴于pbs2.0发布已经有一段时间了,于是就打算将其进行升级。 升级前的准备工作 准备工作主要有两步:备份重要数据及设置好升级源。 备份重要数据 PBS的重要配置文件位于目录/etc/proxmox-backup,其下包含配置文件、验证信息等,升级前最好对其进行备份,以防不测。 官方文档给出一条不太常用的打包备份指令,其内容如下: ta
---出自《分布式监控平台Centreon最佳实践》 众所周知,钉钉机器人依赖于钉钉群组,发送告警信息全部组员都能收到。将数据库管理员加入到系统管理员组,接受大量与数据库工作无关的告警信息,这将是一个很糟糕的策略,因为数据库管理员仅仅关心数据库的运行状态。解决这个问题的思路是:为不同的用户创建不同的钉钉群组,并把不同的联系人与不同的钉钉群组相关联。 创建钉钉群组 钉钉客户端(电脑或者手机)
----出自《分布式监控平台Centreon最佳实践》 Proxmox VE(Proxmox Virtual Environment)简称PVE,是一款能与VMware相匹敌的超融合虚拟化平台,其去中心化的特性使整个平台具备更高的可用性,因为没有控制中心,集群中的任意节点故障,都不会导致服务不可用。Proxmox VE 6以后的版本,几乎所有的管控操作,都可以在Web管理界面轻松完成,真是系统管理
---出自《开源分布式监控系统Centreon》 为准确掌握站点的可用性,可考虑用一个对象来同时检测Nginx、PHP及数据库的运行状态。基本思路是,写一个PHP文件,该文件的主要工作就是对数据库进行查询。当任何一个服务发生故障时,能通过HTTP状态码进行可用性判别。 在站点设定的目录下(也可以是站点的根),编写check_site.php文件,其内容如下: <?php $serve
检查日志文件大小(check_logsize)。小于等于4G正常“OK”,大于4G且小于8G警告“Warning”,大于8G严重警告“Critical”。
#!/bin/bash#writed by sery(wx:formyz),in 2021-6-26 yum -y install gcc gcc-c++ make openssl openssl-devel wget net-tooluseradd nagioschmod +x /etc/rc.d/rc.local #install nrpecd if [[ ! -f nrpe-4.0.2.ta
故障症状有一个Centreon单节点监控系统(不含分布式),隔三差五的挂掉,幸好我们安排人手,时不时访问web管理后台,才没出现大的纰漏。其主要症状是Poller失效,但系统其它进程比如Apache、PHP、Centreon-engine等运行正常。在CentreonWeb管理界面重载(reload)或者重启(restart)cbd服务,无效;登录系统,执行指令systemctlstartcbd,
作者:田逸(vx:formyz,mail:sery@163.com)终于等到pbs发布正式版本pbs1.0,迫不及待去官网下载好proxmox-backup-server_1.0-1.iso文件,将该文件放到我的proxmoxVE的iso目录,创建好虚拟机,并以pbs镜像文件作为引导磁盘(当然,也可以克隆成u盘或者dvd光盘在物理服务器进行安装)。前期规划备份至少要考虑一下几个因素:容量:评估好
proxmoxVE超融合集群从上一次搬机柜重启以来,到现在已经连续运行超过700天了,庆祝一下。
热烈祝贺proxmoxve超融合集群连续无故障运行超过600天!
作者:田逸(v**x:formyz)需求描述两节点物理服务器,外挂虚拟化后的共享存储(两台存储设备),存储通过多路径与物理服务器直接连接。网络划分为三个:数据网络、心跳网络及管理网络(远程控制卡)。工具组件包括:rhel7系统,pcsd工具包(包括corosync等),oracle数据库。高可用HA资源包括:虚拟网络地址(vip)、oracle监听器、逻辑卷资源(LVM)、文件系统(filesys
更新系统及centreon源1、运行如下命令进行centos系统更新yumupdateyumupdate2、运行下列命令,更新centreon源。cd/etc/yum.repo.dcpcentreon.repocentreon.repo.bk20200514sed-is/19.04/20.04/gcentreon.repocd/etc/yum.repo.dcpcentreon.repocentre
故障描述查看pve管理后台概述,发现有告警,提示ceph健康告警。点这个黄色图标,得到更进一步的信息:有2个OSD磁盘塞满了。再用鼠标点击第一行“2nearfullosd(?)”右侧的感叹号,可确定序号为5与7的磁盘塞满了。处理过程确定被数据塞满的OSD位于哪些节点,然后在该节点删除没有运行的虚拟机或者不需要的虚拟机,以释放磁盘空间。确定磁盘位于哪些节点。从上图可知,两个塞满了数据的磁盘分别位于
Copyright © 2005-2022 51CTO.COM 版权所有 京ICP证060544号