双网卡绑定这个技术已经很老了,google一搜也一大堆,今天自己也小记一下

 

 

Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP 地址而并行链接聚合成一个逻辑链路工作。其实这项 技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称 为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。

 

下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接 收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的 Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。

 

Centos 6.0

1、修改网卡配置

首先是bond0


写道

cd /etc/sysconfig/network-scripts 
 
 vim ifcfg-bond0 
 

 DEVICE="bond0" 
 
 BOOTPROTO=static 
 
 BROADCAST="192.168.4.255" 
 
 DNS1="218.108.248.200" 
 
 GATEWAY="192.168.4.1" 
 
 IPADDR="192.168.4.130" 
 
 NETMASK="255.255.255.0" 
 
 ONBOOT="yes" 
 
 TYPE=Ethernet

 接下来是eth0、eth1


写道


vim ifcfg-eth0 
 

 DEVICE="eth0" 
 
 BOOTPROTO=none 
 
 ONBOOT="yes" 
 
 TYPE=Ethernet 
 
 MASTER=bond0 
 
 SLAVE=yes 
 


 vim ifcfg-eth1 
 

 DEVICE="eth1" 
 
 BOOTPROTO=none 
 
 ONBOOT="yes" 
 
 TYPE=Ethernet 
 
 MASTER=bond0 
 
 SLAVE=yes

 

2、加载模块


写道

vim /etc/modprobe.d/dist.conf 
 

 alias bond0 bonding 
 
 options bond0 miimon=100 mode=0

对于这些参数解释,网上也是一大堆


写道


miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3,4,5,6四种模式,常用的为0,1两种。
mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。
mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用


这7种工作方式如下:

=0: (balance-rr) Round-robin policy: (平衡抡循环策略):传输数据包顺序是依次传输,直到最后一个传输完毕, 此模式提供负载平衡和容错能力。

=1: (active-backup) Active-backup policy:(主-备份策略):只有一个设备处于活动状态。 一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得。 此模式提供了容错能力。

=2:(balance-xor) XOR policy:(广播策略):将所有数据包传输给所有接口。 此模式提供了容错能力。

=3:(balance-xor) XOR policy:(平衡策略): 传输根据原地址布尔值选择传输设备。 此模式提供负载平衡和容错能力。

=4:(802.3ad) IEEE 802.3ad Dynamic link aggregation.IEEE 802.3ad 动态链接聚合:创建共享相同的速度和双工设置的聚合组。

=5:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡):没有特殊策略,第一个设备传不通就用另一个设备接管第一个设备正在处理的mac地址,帮助上一个传。

=6:(balance-alb) Adaptive load balancing:(适配器传输负载均衡):大致意思是包括mode5,bonding驱动程序截获 ARP 在本地系统发送出的请求,用其中之一的硬件地址覆盖从属设备的原地址。就像是在服务器上不同的人使用不同的硬件地址一样。


 

3、重启网卡


写道


/etc/init.d/network restart


 

重启的时候,可以看到网卡是否成功启动,启动成功之后就是双网卡绑定状态了

 

至于网上大部分说的ifenslave bond0 eth0 eth1,这只是一条启用命令而已,像上述配置好了的话,这条命令根本不用执行了,也不用去开机执行,因为开机就会加载网卡配置文件了

 

若要查看绑定的网卡状态


写道


cat /proc/net/bonding/bond0 
 


 Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008) 
 

 Bonding Mode: load balancing (round-robin) 
 
 MII Status: up 
 
 MII Polling Interval (ms): 100 
 
 Up Delay (ms): 0 
 
 Down Delay (ms): 0 
 

 Slave Interface: eth0 
 
 MII Status: up 
 
 Link Failure Count: 0 
 
 Permanent HW addr: 00:10:5c:ef:b1:fc 
 

 Slave Interface: eth1 
 
 MII Status: up 
 
 Link Failure Count: 0 
 
 Permanent HW addr: 00:10:5c:ef:b1:fd

ifenslave是centos默认就安装了,它的一些使用方法可以man看看

 

经过测试,双网卡绑定之后,带宽果然有增加至少50%

 

 

Ubuntu 10.04 server

 

没安装的话,执行

 

写道


apt-get install ifenslave-2.6


 

1、修改网卡配置

 

Ubuntu的稍微简单一些

 

 


 写道


vim /etc/network/interfaces 
 

auto lo 
 
iface lo inet loopback 
 

auto bond0 
 
iface bond0 inet static 
 
 address 192.168.4.132 
 
 netmask 255.255.255.0 
 
 gateway 192.168.4.1 
 
post-up ifenslave bond0 eth0 eth1 
 
pre-down ifenslave -d bond0 eth0 eth1

 

2、加载模块

 

首先执行

 


 写道


modprobe bonding


 

 这样就不用重启设备了

当然,配置文件也同样需要添加

 


 写道


vim /etc/modules

bonding mode=0 miimon=100


 

 

3、重启网卡

 

执行

 


 写道


/etc/init.d/networking restart


 

 

完成以后,同样可以查看一下bonding的状态

 


 写道


root@132:/etc/network# cat /proc/net/bonding/bond0 
 
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) 
 

Bonding Mode: load balancing (round-robin) 
 
MII Status: up 
 
MII Polling Interval (ms): 0 
 
Up Delay (ms): 0 
 
Down Delay (ms): 0 
 

Slave Interface: eth0 
 
MII Status: up 
 
Speed: 100 Mbps 
 
Duplex: full 
 
Link Failure Count: 0 
 
Permanent HW addr: 00:10:5c:ef:b2:a2 
 
Slave queue ID: 0 
 

Slave Interface: eth1 
 
MII Status: up 
 
Speed: 1000 Mbps 
 
Duplex: full 
 
Link Failure Count: 0 
 
Permanent HW addr: 00:10:5c:ef:b2:a3 
 
Slave queue ID: 0


http://singlegod.blog.51cto.com/1909710/565367

http://m114.org/system/linux/ubuntu-bonding.html

 

 

如果想改变bonding的工作模式的话,估计需要重启服务器,光重启网卡好像是不行的