一,简介:1,LVS(Linux Virtual Server),即Linux虚拟服务器。它用于多服务器的负载均衡,工作在网络四层,可以实现高性能,高可用的服务器集群技术,它稳定可靠,即使在集群的服务器中某台服务器无法正常工作,也不影响整体效果。是基于TCP/IP做的路由和转发。稳定性和效率很高。  目前,LVS项目已提供了一个实现可伸缩网络服务的Linux Virtual Serve
转载 2023-10-24 00:06:49
86阅读
先前曾经表示要写一篇有实践意义的 LVS 文章,今天兑现。
推荐 原创 2008-06-15 00:54:27
9267阅读
2点赞
14评论
通过NAT实现虚拟服务器(VS/NAT)由于IPv4中IP地址空间的日益紧张和安全方面的原因,很多网络使用 保留IP地址(10.0.0.0/255.0.0.0、172.16.0.0/255.128.0.0和192.168.0.0 /255.255.0.0)[64, 65, 66]。这些地址不在Internet上使用,而是专门为内部网络预留的。当内部网络中的主机要访问Internet或被Inter
原创 2015-06-09 21:50:01
559阅读
通过直接路由实现虚拟服务器(VS/DR)跟VS/TUN方法相同,VS/DR利用大多数Internet服务的非对称特点,负载调度器中只负责调度请求,而服务器直接将响应返回给客户,可以极大地提高整个集群系统的吞吐量。VS/DR的体系结构如图所示:调度器和服务器组都必须在物理上有一个网卡通过不分断的局域网相连,如通过高速的交换机或者HUB相连。VIP地址为调 度器和服务器组共享,调度器配置的VIP地址是
原创 2015-06-09 23:06:59
378阅读
Keepalived+Mysql-Cluster 架构概述 Mysql-cluster本身实现了高可用,但是其sql节点并没有实现负载均衡,单独使用会出现单点故障,因此用Keepalived为mysqld节点提供负载均衡与高可用性,防止单点故障,此外性能也能得到很大的提升!Mysql-Cluster简介简单的说,MySQL Cluster 实际上是在无共享存储设备的情况下实现的一种完全分
转载 精选 2015-01-17 17:10:37
448阅读
一、KEEPALIVED起初就是专门为LVS而设计的,用来监控LVS集群里各个节点的状态,后来加入了VRRP虚拟路由器冗余协议的功能,除了配合LVS,也能做其他服务的的高可用软件(NGINX,HAPROXY),VRRP的功能是解决单点路由障碍,能保证网络稳定、不间断地运行,同时也具有LVS failover功能。      也就是说KeepAlived的功能主要有he
原创 2015-11-17 06:43:05
337阅读
由于企业里大部分都在使用群集架构,所以自己也学习一下这方面的相关知识,看了一些资料,以下都是个人的理解,留作日后备用。 如今高可用一词在网络里是真的火了,为什么会提出,首先是为了解决设备单点故障来设计的。为了保证设备24*7对外提供不间断的服务,提出了负载均衡技术,所谓负载均衡,就是一组设备(至少一台以上)对外提供不间断的服务,再通过一些算法,根据后端节点(web、mysql、mail等)的负载
原创 2012-12-14 10:55:01
605阅读
1点赞
一、LVS 性能调优的方法最佳实践1、最小化安装编译系统内核 2、优化持久服务超时时间: 1)显示超时时间 #ipvsadm -Ln --timeout #Timeout (tcp tcpfin udp): 900 120 300 2)配置为与自身应用贴近的超时时间 #ipvsadm --set tcp tcpfin udp 3、修改内核参数vi /etc/
一、 概念 lvs的术语: Router:GWIP vs:virtual server,director rs:real server CIP:client IP VIP:virtual server IP DIP:ditecter IP(connect with rs) RIP:real serv
转载 2017-06-15 13:17:00
210阅读
2评论
LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统。【1】技术简介:LVS集群采用IP负载均衡技术和基于内容请求分发技术。调度器具有很好的吞吐率,将请求均衡地转移到不同的服务器上执行,且调度器自动屏蔽掉服务器的故障,从而将一组服务器构成一个高性能的、高可用的虚拟服务器。整个服务器集群的结构对客户是透明的,而且无需修改客户端和服务器端的程序。
转载 2024-03-26 16:09:44
50阅读
高性能业务架构解决方案LVS+Keepalived)一、 概况2    1.1 应用场景2    1.2 LVS/Nginx/HAProxy特点3二、 相关理论4    2.1 Keepalived工作原理4    2.2 LVS工作原理
推荐 原创 2017-02-12 13:11:39
10000+阅读
10点赞
5评论
网络拓扑如上: 1.配置三台电脑的IP地址 (注意LVS电脑需要二块网卡) lvs eth0 IP:192.168.0.254 lvs eth1 IP:10.0.0.1 RS1 IP:192.168.0.1 gw:192.168.0.254 RS2 IP:192.168.0.2 gw:192.168.0.254 一:NAT模式配置 在LVS这台电脑上安装ipvsadm软
转载 精选 2013-04-18 20:51:38
711阅读
高性能业务架构解决方案LVS+Keepalived)    高性能业务架构解决方案LVS+Keepalived)一、 概况2    1.1 应用场景2    1.2 LVS/Nginx/HAProxy特点3二、 相关理论4    2.1 Keepaliv
转载 2017-02-20 10:36:15
574阅读
High Availability (IT运维专家网|集群架构|性能调优) 欢迎转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本声明. 更新时间:2009-01-12 链接: [url]http://bbs.linuxtone.org/thread-1402-1-1.html[/url] 一.Piranha 方案 1.  Piranha - Loa
原创 2009-01-11 16:45:51
1490阅读
1点赞
2评论
sit 0.0.0.0 brd 0.0.0.0 其中红色部分所示就是我们绑定的虚拟ip vip:200.200.200.100了。从服务器LVS_S通过相同方法也会得到同样的结果。这个结果说明我们的操作问题通过client可以进行测试了。为了方便测试我们在RS1 和RS2上安装apache服务器,并且在RS1 和RS2上弄起不同的主页方便测试,我这里的测试主页内容RS1就是rs1了,RS2就是rs2了。
lvs
原创 2012-08-23 23:19:01
1817阅读
1点赞
1评论
High Availabilityhttp://bbs.linuxtone.org (IT运维专家网|集群架构|性能调优)欢迎转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本声明.更新时间:2009-01-12 链接: http://bbs.linuxtone.org/thread-1402-1-1.html一.Piranha 方案1.  Piranha - Loa
转载 精选 2010-05-07 13:26:01
975阅读
  用户在做好硬盘分区操作或部署RAID磁盘阵列之后,会面临一个痛点——无法修改硬盘分区的大小。如果用户想要根据实际需求的变化调整硬盘分区的大小时,就需要用到另外一种非常普及的硬盘设备资源管理技术了——LVM(逻辑卷管理器)。LVM可以允许用户对硬盘资源进行动态调整,解决了硬盘设备在创建分区后不易修改分区大小的缺陷。  LVM技术是在硬盘分区和文件系统之间加了一个逻辑层,它提供了一个抽象的卷组,可
原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://renzhenxing.blog.51cto.com/728846/1251228注意:lvs+keepalived 高可用方案中主备可以不需要绑定脚本,只需要keepalived的单个文件就可以整个集群.本实验为了方便理解采用了rpm 包安装的方式,对tar包情有独钟的可以绕过.
转载 精选 2013-07-22 09:48:27
465阅读
这个文章的完成借鉴了很多人的文章,最大的区别就是 一部分人在主从上面都做了脚本绑定 类似于heartbeat一样,另外一部分就是keeplived 上面没有绑定脚本.恰恰我是没有绑定主备脚本的那一部分. 如果有需要绑定脚本的高手能解释类似的问题。联系我
推荐 原创 2013-07-17 11:38:09
1228阅读
6点赞
12评论
1、LVS介绍请自行Google或者百度。 2、网络协议基础知识 根据官方文档LVS支持三种负载工作方式:NAT方式、TUN方式和DR方式。为了说明这三种方式的工作原理,我们首先需要了解一下基础的IP/TCP报文(注意,IP报文和TCP报文是两种不同的报文格式),以及链路层对IP数据的封装方式。然后我们采用看图说话的方式,以图文结合的方式为您介绍这三种工作方式中对报文或重写或封装的过程。   为了
转载 2021-06-23 12:25:48
203阅读
  • 1
  • 2
  • 3
  • 4
  • 5