当需要针对F5做大批量配置时,如果直接使用bigpipe shell批量配置,很容易导致发生HA切换。针对此情况,F5提供一个bigpipe merge的命令,能快速完成大批量配置的部署,同时不会发生HA切换。 bigpipe merge使用方法: Due to this change, each time a bigpipe command i
In BIG-IP version 10.2 hf1.0, when you click persist statistics in GUI, if there are so many persist entries, the GUI will crash. However there is no any impact to your product service. Then you
下面是BIG-IP系统中各个守护进程的解释,详见:http://support.f5.com/kb/en-us/solutions/public/8000/000/sol8035.html?sr=12130346The BIG-IP system daemons perform a variety of functions, such as managing load-balanced traf
详见:https://support.f5.com/kb/en-us/solutions/public/3000/200/sol3242.html F5关于CPU分配设计在介绍F5在设计CPU时,需要解释一下TMM。TMM即Traffic Management Microkernel,自9.0开始,F5的所有load-balanced流量都有TMM来处理,而之前的版本都是使用kernel来
摘自于http://support.f5.com/kb/en-us/solutions/public/7000/300/sol7301a.html,如下是该链接的全部内容。 The BIG-IP system is a secure device in its default configuration. The BIG-IP system denies all traffic except f
The meaning of ssl tps is intricate, and confused me for a long time. TPS means the transactions per second, but what ‘s the true meaning of transaction in ssl. As we all know, there are two leading
Most manufacturers would simply attempt to use SMP to distribute TMOS process across multiple processors—with shared memory, network card, and special purpose processors. Others might attempt to run multiple instances of the TMM on different processors—still with the requisite shared memory, network card, and special-purpose processors. Instead, CMP(clustered multiprocessing) enables load balancing of multiple processing cores, each with its own dedicated memory, network interface, and special-p
多核技术虽然在性能上比传统的uniprocessiing优越,但是在设计上有很多挑战。几个很明显的问题包括如何将不同应用负载到多cpu的问题和资源调度共享问题等等。诸如这些问题的考虑,多核设计上出现了AMP、SMP以及BMP架构。
CMP Restrictions in BIG-IP version 9.4.0 through 9.6.1:
现象描述:一台ltm设备配置到内网网段的路由走csw的hsrp floating网关ip,一直运行正常。今天突然出现所有内网node和pool的健康检查失败。分析排障:1,进一步分析症状:直接在此LTM设备上telnet相应pool member的端口正常,但是直接ping这个hsrp的网关地址却不通。而ping非hsrp地址即交换机实际的网关地址正常。 2,尽快恢复业务:为了尽快恢复正常,立即修
需求:有一台服务器需要在LTM上面映射一个地址,并且控制仅访问其某一个目录,不能访问其他目录。环境:LTM以旁路方式部署,配置vip时必须使用snat。分析一:由于只有一台服务器,所以简单分析就是针对该VIP的访问直接跳转到该服务器的这个页面url,并且可以不用调用pool。所以配置如下:virtual url_80_vs { destination 1.1.1.1:http snatpo
NetScaler设备管理一般是通过ssh –l nsroot@ip然后输入密码进行登陆管理的。但是应用发布的时候需要使用脚本进行自动登录,所以需要使用ssh的public-key进行登录而非密码登陆。所以需要按照如下步骤进行操作: 摘自: http://support.citrix.com/proddocs/index.jsp?lang=en&topic=/ne
Google 标签: netscaler, ha, mbf, failover,nsip,subnetip 1, 部署NetScaler的HA模式 NetScaler的HA模式部署有点像FWSM的部署,与F5的部署还有有很大区别的。首先可以单node方式部署一台NetScaler,在这个上面做好所有的相关配置,包括NSIP、subnet IP、路由、用户名以及相关的feature等。确保这台
Google 标签: http monitor, f5, GET 最近在需求的驱动下,认真研究了一下F5的http monitor的处理机制。从F5的技术白皮书上初略理解到:http monitor可以通过检测某个服务目录,从而从得到的结果中匹配相关的字符串。 比如下面的monitor: b monitor http_mo1 list monitor http_mo1 {
Google 标签: netscaler, ssl, cipher, select 这些天很是研究了一把NetScaler关于cipher选择的机制。通过抓包进行分析得知一个初步结论为NetScaler针对cipher选择的机制可能是匹配client hello包中的第一个cipher,也就是说按照此包中的cipher list进行顺序匹配。这样的机制很被动,因为客户端的cipher list是
Google 标签: netscaler, cookie, sourceip, session保持 使用NetScaler的cookieinsert和sourceip联合进行session保持机制即主用cookieinsert方式进行保持,当cookieinsert失效时启用sourceip的保持机制。 客户端访问到NetScaler的某一个vserver,NetScaler接收到第一个req
Google 标签: 9.1.2 40.6, fan down, eud, full_box_reboot 一台LTM,软件版本为BIG-IP Version 9.1.2 40.6,日志报警为 system_check: 010d0005:3: Chassis fan 10x: status (0) is bad. 而是用b platform命令可以看到所有的6个风扇都显示为down。由于不
昨天在测试LTM系统上面通过命令行配置了一些vs,由于一次性命令粘贴的配置太多,直接复制上去后,导致很多monitor配置都消失了。由于还没有针对这个系统配置短信报警系统,所以今天才发现。 在LTM的GUI界面上面查看到monitor表里面只有默认的monitor了,而其他自定义的monitor消失了。于是查看bigip.conf配置文件,发现没有一个monitor配置了。而通过vi /conf
1,版本降级原因 目前LTM6800使用的版本为HD1.2 : BIG-IP 9.4.5 Build 1049.10,由于在在配置rule的时候出了一个奇怪的问题,在GUI里面添加这个rule没有报错误,而且一个virtual server也绑了这个rule,但是进入命令使用b load命令却报错,错误信息如下: [root@LB-1B-LTM6800:Standby] con
下面假设客户访问[url]www.abc.com[/url]的dns请求流程如图: 1, 首先向其所在运营商的Local DNS发起[url]www.abc.com[/url]域名的DNS请求,步骤1; 2, 运营商的Local DNS服务器从RootDNS得知[url]www.abc.com[/url]由DNS-CTC、DNS-CNC、DNS-U
降级缘由: 上周五看到外部负载的standby设备上面virtual server突然消失了,通过排查和咨询甚至重启设备,无法找到原因恢复,确认可能是系统版本bug。咨询厂商工程师建议针对我们目前的系统进行升级至9.4.5或者降级至9.3.1-HF4。 版本分析: 9.4.0,官方已经收回此版本,不建议使用; 9.3.1-HF4,官方建议
F5的端口绑定在F5的配置上面叫做端口的Trunk,与cisco技术上的trunk不通。 一般F5的内外网口都会接入在交换机上面,比如cisco的7609等,这样针对F5做端口绑定就需要注意以下问题了: 1,F5端口绑定支持的算法默认为dst-src-ip,是否与互联的交换机兼容;2,F5同样支持LACP协议,是否与互联交换机兼容等;3,F5做Trunk配置在不中断服务的情况下,需要先做sta
需求: 1,abc.com和[url]www.abc.com[/url]两个域名解析成同一个ip(F5上的vip1),提供443服务,并且只提供[url]www.abc.com[/url]的证书;但是平时会有人通过访问[url]http://www.abc.com[/url]或者[url]http://abc.com[/url]来访问。所以通过abc.com来访问的话会有证书确认的提示。 2,xy
今天接到应用部门一个需求: 针对他们部门的某个URL: [url]http://www.abc.com/[/url]和[url]https://www.abc.com/[/url]访问,需要直接跳到某一台主机上,而不希望在这个pool成员中轮询。而且正常的访问这个URL,需要跳转到[url]https://www.abc.com/[/url],但是一些程序针对这个域名的接口调用则不需要跳转,一般
今天突然想到了Bigip系统内部SNAT的效果,做了一个小小的测试,总结如下:1,SNAT Pool(假定地址为a)只能作为一个对象,即其要发生作用,必须绑定在一个VS或者SNAT中;2,在Virtual Server(假定地址为b)中,绑用一个SNAT Pool后,针对这个VS的所有访问的源地址都会转换成SNAT Pool中的地址(假定地址为a);3,而在SNAT中绑用一个SNAT Pool(假
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号