开源私有云全能冠军proxmox,一键安装,一条指令即可建立起集群。不借助外挂存储,不需要什么控制中心,谁都可以做老大,死了谁都不要紧。用了好长一段时间,把服务器虚拟化与桌面虚拟化整合到一起,这才是真超融合呢!
接到一个求助电话,说是有个阿里云上的服务器,有性能瓶颈,但又没有什么具体的数据,只是说偶尔客户端有少数连接不上,或者连接会突然中断。我的天,最怕这种状况了,还得自己去找问题表现是什么,再去找什么原因所致。因为是线上的环境,得分两步进行。先检查,看系统或者应用存在什么明显的印迹,分析原因和处理方法;协商什么时候可以处理,处理风险是什么。怕影响用户体验,白天还不让搞。月黑风高,家里有没暖气啊(用一块闲
发件人: 周** 发送时间: 2011-03-04 18:54:37 收件人: sery 抄送: 主题: 请教问题 我看你们的服务器的连接都是比较正常的 [root@381263 conf]# netstat -n |&n
在RHCS体系中,Oracle的启动是按以下顺序进行的:VIP。监听器。逻辑卷(ISCSI共享出来的)。文件系统(在逻辑卷上创建)。数据库实例。上边这些资源,在PCS里创建好以后,将其组合成一个单独的资源组,形成一个不可分割的整体。1)PCS添加Oracle监听器资源Oracle 的VIP资源在前边已经添加,那么接下来就从第2项监听器开始。为了方便安排各资源的启动顺序,可以先勾选已经存在的资源“d
HAProxy可以在各种主流的Linux发行版、主流的Unix操作系统(如Fredsd、Solaris)安装和稳定高效的运行,从HAProxy提供的安装文档“INSTALL”上,可以获得这些信息,如图5-3所示。图5- 3有两种安装HAProxy的方法:一种是用Linux操作系统发行版的包管理工具,另一种则是用源码进行编译安装。一般而言,包管理工具局限性比较大,每种Linux操作系统发
作者:田逸(formyz)存在两个项目,一个是Web服务集群,另一个是Python集群。将这两个集群置于同一个负载均衡器之下,有效利用资源。为了便于开展工作,先把资源分配列举出来,如表4-3所示。表4- 3名称说明Web服务VIP地址及TCP端口172.16.35.188:80自定义Python服务地址及TCP端口172.16.35.189:10033负载均衡器物理地址172.16.35.111,
第1章 关于负载均衡... 21.1 负载均衡定义... 21.2 负载均衡在生产环境中的基本要求... 31.2.1 在线可扩展性... 31.2.2 高可用性... 31.2.3 多服务性... 41.3
作者:田逸(formyz) 开篇之初,先举几个反例,来说明事前规划的重要性。案例一:某广告媒体公司,需要部署一套媒体播放系统,由一台应用服务器和一台数据库服务器组成,让人没想到的是,为了这两台服务器,花了几十万采购了一台网络端口超过96个的三层核心交换机。询问相关人员,这样配备是基于什么考虑?答“背板带宽大,速度快”。作者一脸愕然,是钱多怕花不掉,还是被供货商给左右了,不得而知。案例二:
作者:田逸(formyz)场景描述五节点Proxmox VE集群,万兆网络,数据网络与存储网络独立,接口两两bond,交换机堆叠。单机配置两颗AMD 宵龙CPU,核心数48,单台线程数192,单台内存1024G。存储分三种:SATA接口SSD,做系统盘;NVME 固态盘,做虚拟机与数据库的Ceph Pool;大容量低速SATA机械盘,做要求不太高的对象Ceph Pool。计划中,像日志
目录第1章 关于负载均衡 11.1 负载均衡定义 11.2 负载均衡在生产环境中的基本要求 21.2.1 在线可扩展性 21.2.2 高可用性 21.2.3 多服务性 31.3 负载均衡基本功能 31.3.1 负载均衡 31.3.2 健康检查 41.3.3 负载均衡器失败切换(Failover) 4
Linux 高可用系列之《分布式监控平台Centreon 实践真传》正式发布,出版商:清华大学出版社 ISBN:978-7-302-62813-2.欢迎围观。封面图实物图全家福
作者:田逸(formyz)Proxmox VE集群一旦创建,其集群的名称就固定下来。在Proxmox VE Web管理后台,没有相应的菜单或按钮对应与集群名称的修改(仅仅发现修改虚拟机选项有修改名称的地方)。在宿主系统Debian下,Proxmox VE管理集群的工具为pvecm,其选项中,也不存在对集群名称进行修改的条目。有时候,觉得集群的名字不妥,非要去改,特别是已经Promxo
作者:田逸(formyz)问题描述从Proxmox VE web管理后台添加本地存储,如LVM、LVM-Thin(精简逻辑卷)等,有时候可能需要删除这些存储,但其Web管理后台却没有提供菜单或者按钮。要删除这些项目,需要在宿主系统Debian的命令行下去操作。如果操作由遗漏,虽然Proxmox VE的存储配置文件“/etc/pve/storage.cfg”里边清理掉了,但Proxmox VE
新书
User - 31 October 2022 14:49Because I published a new book "Proxmox VE Hyperconverged Cluster Practice True Biography", it has a certain influence on Chinese mainland, and readers often send messages
作者:田逸(formyz)需求描述有一个网站,因为域名变更,除了需要重新做域名解析外,还需要对网站目录的包含原域名的文件进行替换。包含域名(主机名)关键字的文件相当的多,它们分布在不同目录的以html、php、phtml 结尾的文件中。数千个文件,如果手工来替换,根本无法完成,因此,使用shell是不二之选。基本思路总体上分两步进行:1、文件查找。将网站所在根文档目录包含关键字域名的文件
作者:田逸(formyz)出事了,十万火急一帮可爱的程序员,写的程序没有规划,程序、代码与日志一锅粥,而且都在某云的系统盘,不光生成的文件多,而且不做处理。有一天,来了个十万火急的求救,告知弹性伸缩功能被触发,自动增加云主机到设定的最高值,但系统仍然不能访问,需要我马上解决。登上任意云主机系统,查进程、查负载、再查磁盘使用率,我的天,系统只有一个分区,大小为40G,使用率接近100%。没有空闲
作者:田逸(formyz)接到一个任务,需要对一个数据量比较大的MySQL数据库的部分数据表做主从复制,其中有51个表的表明前缀相同(如下图所示),还有几个没有规律的表也需要一起同步。要实现MySQL主从同步,需要先导出一份源数据库的备份。可用的方法有两种:mysqldump 与 xtrabackup。在确定源数据库的版本后(5.6.50),目标系统安装好与之匹配的MySQL版本(不高于MyS
出版机构:清华大学出版社(国家一级)ISBN:978-7-302-61185-1责任编辑:王中英
作者:田逸 从 Proxmox VE 6开始,在华为服务器(各种型号)进行安装,都不会很顺利。最近购进一台二手华为服务器,型号为RH1288,配置如下图所示:计划直接在此服务器安装最新的版本Proxmox VE 7.2,直接从官网下载会比较慢,从国内清华大学的镜像站点下载,可大大节省时间,下载地址为://mirrors.tuna.tsinghua.ed
预计最快本月全国公开发行!
作者:田逸(vx:formyz) 场景描述 当Proxmox VE集群中有节点损坏无法快速修复时,需要将故障节点干净的从集群踢出,并把残留信息清理干净。否则,新的节点用故障节点曾使用用的IP的地址将不能正常加入集群;同样,从集群中脱离出来的故障节点修复后,虽然与集群已经毫无关系,但访问此单节点的Web管理后台,将出现原Proxmox VE集群其它节点的信息,非常恼火。从集群中驱
作者:田逸(vx:formyz)需求产生在某地运营商机房租了几台服务器,为了节省成本,租的都是低配且年级比较大的服务器。选择其中三台做成ProxmoxVE超融合集群,平台上的虚拟机配置成高可用,存储为分布式去中心化Ceph。这三个节点的配置为内存64G(16根4G单条)、6块7200转容量为2TB的低速机械盘,性能相当的差。将一些边缘业务、不太重要的应用放在这样一个性能不高的平台上,虽然运行时资
作者:田逸(formyz)江湖救急,一老友告知,一运行Gitlab的主机负载很高,并且把整个出口带宽都耗尽了,希帮忙处理。根据经验,直接答复“很可能被挖矿了”。在取得系统权限以后,登录到该系统。查看系统进程,除了发现挖矿进程“xmrig”外,还有两个命名怪异的进程“diofiglos”与“cacascqw”。试着用kill指令绞杀挖矿进程“xmrig”,杀掉一个又再启动一个,无法消灭之。是不是有
将阿里云上的RDS MySQL数据迁移到自建的服务器或者虚拟机,如果需要尽可能小的停机时间或者不停服务,那么至少需要做分两个步骤来完成:本地MySQL与RDS MySQL进行数据库同步及验证数据一致后将从库变成主库。其中比较麻烦的事情是本地MySQL与RDS做主从,因为与完整的MySQL主从同步相比,RDS 限制很多。因数据库角色切换比较简单,所以本文仅介绍主从同步第一步:备份RDS数据登录阿里云
出版社的美编,给了好几个板式,个人觉得有点像教材啊。
一单节点pve,版本为7.0,顺手刷了一下更新,升级到版本7.1。因为对其中的一个Centos 7虚拟机执行了yum update,重启此虚拟机,启动失败,尝试多次皆如此。kvm: -drive file=/dev/pve/vm-102-disk-2,if=none,id=drive-scsi1,cache=writeback,format=raw,aio=io_uring,detect-zero
作者:田逸(vx formyz)需求的产生在一个高配置的Proxmox VE 超融合集群中,为充分利用资源,需要按某种需求将虚拟机之间进行网络隔离,以支持更大规模的场景。网络虚拟化基本条件ü 支持VLAN的网络交换机。ü Proxmox VE 安装openvswitch-switch。ü 多网卡服务器。交换机配置我这里用的交换机是Cisco Catalyst 4500,具体的步骤是如下:1、
作者:田逸(vx:formyz)创建多Ceph Pool的目的Proxmox VE集群上的虚拟机运行在高速磁盘NVME,而虚拟机附属的数据,则指定到低速、廉价、容量大的磁盘空间。为了高可用性,充分利用资源,需要让除Proxmox VE宿主二外的数据都运行在Ceph分布式存储上。 解决思路把高速的NVMe(或者其它固态磁盘SSD)多磁盘做成一个Ceph
Proxmox 提供了“proxmox-backup-client”针对Centos7和Centos 8的rpm封装包,其下载地址为 https://github.com/sg4r/proxmox-backup-client/releases/download/v1.0.11/proxmox-backup-1.0.11-2.x86_64.el7.rpm 。在Centos 7.8版本安装这个
Copyright © 2005-2023 51CTO.COM 版权所有 京ICP证060544号