双网卡绑定这个技术已经很老了,google一搜也一大堆,今天自己也小记一下 

Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP 地址而并行链接聚合成一个逻辑链路工作。其实这项 技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称 为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。

 

下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接 收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的 Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。

 

Centos 6.0 1、修改网卡配置

首先是bond0

  1. cd /etc/sysconfig/network-scripts 
  2. vim ifcfg-bond0 
  3.  
  4. DEVICE="bond0" 
  5. BOOTPROTO=static 
  6. BROADCAST="192.168.4.255" 
  7. DNS1="218.108.248.200" 
  8. GATEWAY="192.168.4.1" 
  9. IPADDR="192.168.4.130" 
  10. NETMASK="255.255.255.0" 
  11. ONBOOT="yes" 
  12. TYPE=Ethernet 

 接下来是eth0、eth1

  1. vim ifcfg-eth0 
  2.  
  3. DEVICE="eth0" 
  4. BOOTPROTO=none 
  5. ONBOOT="yes" 
  6. TYPE=Ethernet 
  7. MASTER=bond0 
  8. SLAVE=yes 
  9.  
  10.  
  11. vim ifcfg-eth1 
  12.  
  13. DEVICE="eth1" 
  14. BOOTPROTO=none 
  15. ONBOOT="yes" 
  16. TYPE=Ethernet 
  17. MASTER=bond0 
  18. SLAVE=yes  
2、加载模块
  1. vim /etc/modprobe.d/dist.conf 
  2.  
  3. alias bond0 bonding 
  4. options bond0 miimon=100 mode=0 

 对于这些参数解释,网上也是一大堆

 

 

  1. miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3,4,5,6四种模式,常用的为0,1两种。 
  2. mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 
  3. mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份. 
  4. bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用 
  5.  
  6. 这7种工作方式如下: 
  7.  
  8. =0: (balance-rr) Round-robin policy: (平衡抡循环策略):传输数据包顺序是依次传输,直到最后一个传输完毕, 此模式提供负载平衡和容错能力。 
  9.  
  10. =1: (active-backup) Active-backup policy:(主-备份策略):只有一个设备处于活动状态。 一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得。 此模式提供了容错能力。 
  11.  
  12. =2:(balance-xor) XOR policy:(广播策略):将所有数据包传输给所有接口。 此模式提供了容错能力。 
  13.  
  14. =3:(balance-xor) XOR policy:(平衡策略): 传输根据原地址布尔值选择传输设备。 此模式提供负载平衡和容错能力。 
  15.  
  16. =4:(802.3ad) IEEE 802.3ad Dynamic link aggregation.IEEE 802.3ad 动态链接聚合:创建共享相同的速度和双工设置的聚合组。 
  17.  
  18. =5:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡):没有特殊策略,第一个设备传不通就用另一个设备接管第一个设备正在处理的mac地址,帮助上一个传。 
  19.  
  20. =6:(balance-alb) Adaptive load balancing:(适配器传输负载均衡):大致意思是包括mode5,bonding驱动程序截获 ARP 在本地系统发送出的请求,用其中之一的硬件地址覆盖从属设备的原地址。就像是在服务器上不同的人使用不同的硬件地址一样。 

 

3、重启网卡
写道
/etc/init.d/network restart

 

重启的时候,可以看到网卡是否成功启动,启动成功之后就是双网卡绑定状态了

 

至于网上大部分说的ifenslave bond0 eth0 eth1,这只是一条启用命令而已,像上述配置好了的话,这条命令根本不用执行了,也不用去开机执行,因为开机就会加载网卡配置文件了

 

若要查看绑定的网卡状态

写道
cat /proc/net/bonding/bond0


Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b1:fc

Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b1:fd

 

ifenslave是centos默认就安装了,它的一些使用方法可以man看看

 

经过测试,双网卡绑定之后,带宽果然有增加至少50%

 

 

Ubuntu 10.04 server

 

没安装的话,执行

 

写道

apt-get install ifenslave-2.6

 

1、修改网卡配置

 

Ubuntu的稍微简单一些

 

 

 写道
vim /etc/network/interfaces

auto lo
iface lo inet loopback

auto bond0
iface bond0 inet static
address 192.168.4.132
netmask 255.255.255.0
gateway 192.168.4.1
post-up ifenslave bond0 eth0 eth1
pre-down ifenslave -d bond0 eth0 eth1

 

 

2、加载模块

 

首先执行

 

 写道
modprobe bonding

 

 这样就不用重启设备了

当然,配置文件也同样需要添加

 

 写道
vim /etc/modules

bonding mode=0 miimon=100

 

 

3、重启网卡

 

执行

 

 写道
/etc/init.d/networking restart

 

 

完成以后,同样可以查看一下bonding的状态

 

 写道

root@132:/etc/network# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth0
MII Status: up
Speed: 100 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b2:a2
Slave queue ID: 0

Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:10:5c:ef:b2:a3
Slave queue ID: 0