由于缺乏良好的规划,有开发人员直接在公有云采购一个容量超过100TB的NAS存储,使用过程中,数据的存储也没有规划,业务数据一股脑的写入到同一个目录,下边的子目录没有规律,用用户的图片、视频、访问日志、甚至还有备份。因应用日趋增多,公有云的使用成本急剧上升,考虑到成本及可控性,决定把公有云的NAS及所有应用迁移到自建的Proxmox VE超融合集群。于是在Proxmox VE集群创建虚拟机,并给
作者亲自尝试过的开源MySQL读写分离工具有Amoeba、MySQL Proxy、Mycat等,经过仔细测试对比,在某个实际项目中选用Mycat作为MySQL数据库读写分离的代理工具。Mycat当前的最新版本为Mycat2,可从http://dl.mycat.org.cn/2.0/install-template取得下载包。7.3.1 安装Mycat 2到系统Mycat 需要依赖于JAVA,因此需
在RHCS体系中,Oracle的启动是按以下顺序进行的:VIP。监听器。逻辑卷(ISCSI共享出来的)。文件系统(在逻辑卷上创建)。数据库实例。上边这些资源,在PCS里创建好以后,将其组合成一个单独的资源组,形成一个不可分割的整体。1)PCS添加Oracle监听器资源Oracle 的VIP资源在前边已经添加,那么接下来就从第2项监听器开始。为了方便安排各资源的启动顺序,可以先勾选已经存在的资源“d
HAProxy可以在各种主流的Linux发行版、主流的Unix操作系统(如Fredsd、Solaris)安装和稳定高效的运行,从HAProxy提供的安装文档“INSTALL”上,可以获得这些信息,如图5-3所示。图5- 3有两种安装HAProxy的方法:一种是用Linux操作系统发行版的包管理工具,另一种则是用源码进行编译安装。一般而言,包管理工具局限性比较大,每种Linux操作系统发
作者:田逸(formyz)存在两个项目,一个是Web服务集群,另一个是Python集群。将这两个集群置于同一个负载均衡器之下,有效利用资源。为了便于开展工作,先把资源分配列举出来,如表4-3所示。表4- 3名称说明Web服务VIP地址及TCP端口172.16.35.188:80自定义Python服务地址及TCP端口172.16.35.189:10033负载均衡器物理地址172.16.35.111,
第1章 关于负载均衡... 21.1 负载均衡定义... 21.2 负载均衡在生产环境中的基本要求... 31.2.1 在线可扩展性... 31.2.2 高可用性... 31.2.3 多服务性... 41.3
作者:田逸(formyz) 开篇之初,先举几个反例,来说明事前规划的重要性。案例一:某广告媒体公司,需要部署一套媒体播放系统,由一台应用服务器和一台数据库服务器组成,让人没想到的是,为了这两台服务器,花了几十万采购了一台网络端口超过96个的三层核心交换机。询问相关人员,这样配备是基于什么考虑?答“背板带宽大,速度快”。作者一脸愕然,是钱多怕花不掉,还是被供货商给左右了,不得而知。案例二:
作者:田逸(formyz)场景描述五节点Proxmox VE集群,万兆网络,数据网络与存储网络独立,接口两两bond,交换机堆叠。单机配置两颗AMD 宵龙CPU,核心数48,单台线程数192,单台内存1024G。存储分三种:SATA接口SSD,做系统盘;NVME 固态盘,做虚拟机与数据库的Ceph Pool;大容量低速SATA机械盘,做要求不太高的对象Ceph Pool。计划中,像日志
目录第1章 关于负载均衡 11.1 负载均衡定义 11.2 负载均衡在生产环境中的基本要求 21.2.1 在线可扩展性 21.2.2 高可用性 21.2.3 多服务性 31.3 负载均衡基本功能 31.3.1 负载均衡 31.3.2 健康检查 41.3.3 负载均衡器失败切换(Failover) 4
作者:田逸(formyz)Proxmox VE集群一旦创建,其集群的名称就固定下来。在Proxmox VE Web管理后台,没有相应的菜单或按钮对应与集群名称的修改(仅仅发现修改虚拟机选项有修改名称的地方)。在宿主系统Debian下,Proxmox VE管理集群的工具为pvecm,其选项中,也不存在对集群名称进行修改的条目。有时候,觉得集群的名字不妥,非要去改,特别是已经Promxo
作者:田逸(formyz)问题描述从Proxmox VE web管理后台添加本地存储,如LVM、LVM-Thin(精简逻辑卷)等,有时候可能需要删除这些存储,但其Web管理后台却没有提供菜单或者按钮。要删除这些项目,需要在宿主系统Debian的命令行下去操作。如果操作由遗漏,虽然Proxmox VE的存储配置文件“/etc/pve/storage.cfg”里边清理掉了,但Proxmox VE
User - 31 October 2022 14:49Because I published a new book "Proxmox VE Hyperconverged Cluster Practice True Biography", it has a certain influence on Chinese mainland, and readers often send messages
作者:田逸(formyz)出事了,十万火急一帮可爱的程序员,写的程序没有规划,程序、代码与日志一锅粥,而且都在某云的系统盘,不光生成的文件多,而且不做处理。有一天,来了个十万火急的求救,告知弹性伸缩功能被触发,自动增加云主机到设定的最高值,但系统仍然不能访问,需要我马上解决。登上任意云主机系统,查进程、查负载、再查磁盘使用率,我的天,系统只有一个分区,大小为40G,使用率接近100%。没有空闲
作者:田逸(formyz)接到一个任务,需要对一个数据量比较大的MySQL数据库的部分数据表做主从复制,其中有51个表的表明前缀相同(如下图所示),还有几个没有规律的表也需要一起同步。要实现MySQL主从同步,需要先导出一份源数据库的备份。可用的方法有两种:mysqldump 与 xtrabackup。在确定源数据库的版本后(5.6.50),目标系统安装好与之匹配的MySQL版本(不高于MyS
预计最快本月全国公开发行!
作者:田逸(vx:formyz) 场景描述 当Proxmox VE集群中有节点损坏无法快速修复时,需要将故障节点干净的从集群踢出,并把残留信息清理干净。否则,新的节点用故障节点曾使用用的IP的地址将不能正常加入集群;同样,从集群中脱离出来的故障节点修复后,虽然与集群已经毫无关系,但访问此单节点的Web管理后台,将出现原Proxmox VE集群其它节点的信息,非常恼火。从集群中驱
作者:田逸(vx:formyz)需求产生在某地运营商机房租了几台服务器,为了节省成本,租的都是低配且年级比较大的服务器。选择其中三台做成ProxmoxVE超融合集群,平台上的虚拟机配置成高可用,存储为分布式去中心化Ceph。这三个节点的配置为内存64G(16根4G单条)、6块7200转容量为2TB的低速机械盘,性能相当的差。将一些边缘业务、不太重要的应用放在这样一个性能不高的平台上,虽然运行时资
作者:田逸(formyz)江湖救急,一老友告知,一运行Gitlab的主机负载很高,并且把整个出口带宽都耗尽了,希帮忙处理。根据经验,直接答复“很可能被挖矿了”。在取得系统权限以后,登录到该系统。查看系统进程,除了发现挖矿进程“xmrig”外,还有两个命名怪异的进程“diofiglos”与“cacascqw”。试着用kill指令绞杀挖矿进程“xmrig”,杀掉一个又再启动一个,无法消灭之。是不是有
将阿里云上的RDS MySQL数据迁移到自建的服务器或者虚拟机,如果需要尽可能小的停机时间或者不停服务,那么至少需要做分两个步骤来完成:本地MySQL与RDS MySQL进行数据库同步及验证数据一致后将从库变成主库。其中比较麻烦的事情是本地MySQL与RDS做主从,因为与完整的MySQL主从同步相比,RDS 限制很多。因数据库角色切换比较简单,所以本文仅介绍主从同步第一步:备份RDS数据登录阿里云
出版社的美编,给了好几个板式,个人觉得有点像教材啊。
一单节点pve,版本为7.0,顺手刷了一下更新,升级到版本7.1。因为对其中的一个Centos 7虚拟机执行了yum update,重启此虚拟机,启动失败,尝试多次皆如此。kvm: -drive file=/dev/pve/vm-102-disk-2,if=none,id=drive-scsi1,cache=writeback,format=raw,aio=io_uring,detect-zero
作者:田逸(vx formyz)需求的产生在一个高配置的Proxmox VE 超融合集群中,为充分利用资源,需要按某种需求将虚拟机之间进行网络隔离,以支持更大规模的场景。网络虚拟化基本条件ü 支持VLAN的网络交换机。ü Proxmox VE 安装openvswitch-switch。ü 多网卡服务器。交换机配置我这里用的交换机是Cisco Catalyst 4500,具体的步骤是如下:1、
作者:田逸(vx:formyz)创建多Ceph Pool的目的Proxmox VE集群上的虚拟机运行在高速磁盘NVME,而虚拟机附属的数据,则指定到低速、廉价、容量大的磁盘空间。为了高可用性,充分利用资源,需要让除Proxmox VE宿主二外的数据都运行在Ceph分布式存储上。 解决思路把高速的NVMe(或者其它固态磁盘SSD)多磁盘做成一个Ceph
Proxmox 提供了“proxmox-backup-client”针对Centos7和Centos 8的rpm封装包,其下载地址为 https://github.com/sg4r/proxmox-backup-client/releases/download/v1.0.11/proxmox-backup-1.0.11-2.x86_64.el7.rpm 。在Centos 7.8版本安装这个
第1章 老司机眼中的私有云... 3 1.1私有云的定义... 3 1.2私有云适用场景... 4 1.3私有云行业现状... 6 1.4私有云技术要求(针对Proxmox VE平台)... 7 第2章 开源私有云神器Proxmox VE. 8 2.1 Proxmox VE主要特征... 8 2.2 Proxmox VE主要功能... 10 2.3服务与支持... 18 2.4题外话... 19
今天终于把Proxmox VE(简称PVE)从6.1版本升级到PVE 6.4版本,在Web管理后台对比PVE 6.4与 PVE 6.1,看新增哪些功能?在数据中心的菜单项里,多了一个度量服务器(Metric Server),中文显示“公制服务器”,翻译得怪怪的。 挡不住好奇,点进去看看,原来是添加远程数据统计服务器InfluxDB或者Graphite。 既然可以添加InfluxDB,那么在此基
作者:田逸(vx:formyz) 与NFS备份Proxmox VE上的虚拟机或容器相比较,PBS(Proxmox Backup Server)的效率要高很多,特别是备份速度。虽然如此,但我担心PBS可用性问题,万一PBS数据丢失,后果不堪设想。而用NFS做备份,则可用rsync把备份数据同步到另外一个系统上,从使PVE至少有两个异地副本。 昨天,把PBS从1.X升级到2.X,升级完后,在Web
现在手里有一个版本号为pbs1.0-1的系统,鉴于pbs2.0发布已经有一段时间了,于是就打算将其进行升级。 升级前的准备工作 准备工作主要有两步:备份重要数据及设置好升级源。 备份重要数据 PBS的重要配置文件位于目录/etc/proxmox-backup,其下包含配置文件、验证信息等,升级前最好对其进行备份,以防不测。 官方文档给出一条不太常用的打包备份指令,其内容如下: ta
---出自《分布式监控平台Centreon最佳实践》 众所周知,钉钉机器人依赖于钉钉群组,发送告警信息全部组员都能收到。将数据库管理员加入到系统管理员组,接受大量与数据库工作无关的告警信息,这将是一个很糟糕的策略,因为数据库管理员仅仅关心数据库的运行状态。解决这个问题的思路是:为不同的用户创建不同的钉钉群组,并把不同的联系人与不同的钉钉群组相关联。 创建钉钉群组 钉钉客户端(电脑或者手机)
----出自《分布式监控平台Centreon最佳实践》 Proxmox VE(Proxmox Virtual Environment)简称PVE,是一款能与VMware相匹敌的超融合虚拟化平台,其去中心化的特性使整个平台具备更高的可用性,因为没有控制中心,集群中的任意节点故障,都不会导致服务不可用。Proxmox VE 6以后的版本,几乎所有的管控操作,都可以在Web管理界面轻松完成,真是系统管理
Copyright © 2005-2023 51CTO.COM 版权所有 京ICP证060544号