网卡bonding模式共有0、1、2、3、4、5、6共7种
mode1、5、6不需要要交换机设置
mode0、2、3、4需要交换机设置
1、mode=0 (round-robin)
轮询策略,数据包在每个slave网卡上都进行数据传输,以逐包形式在两个物理网卡上转发数据。这种模式提供了数据的负载均衡和容错能力。
2、mode=1 (active-backup)
主备策略,只有一个slave被激活,只有当active的slave的接口down时,才会激活其它slave接口。主备模式下发生一次故障切换,在新激活的slave接口上会发送一个或者多个gratuitous ARP。主salve接口上以及配置在接口上的所有VLAN接口都会发送gratuitous ARP,需要在这些接口上配置了至少一个IP地址。VLAN接口上发送的的gratuitous ARP将会附上适当的VLAN id。本模式提供容错能力。
3、mode=2(XOR)
基于所选择的hash策略,本模式也提供负载均衡和容错能力
4、mode=3(broadcast)
广播策略,向所有的slave接口发送数据包,本模式提供容错能力
5、mode=4(802.3ad)
动态链路聚合,根据802.3ad标准利用所有的slave建立聚合链路。slave接口的出口取决于传输的hash策略,默认策略是简单的XOR策略,而hash策略则可以通xmit_hash_policy选项配置。
前提:每个slave网卡支持ethtool获取速率和双工状态
交换机支持IEEE 802.3ad标准(可能需要配置启用)
IEEE 802.3ad 是执行链路聚合的标准方法。将多个以太网适配器聚集到单独的虚拟适配器方面与“以太通道(EtherChannel)”的功能相同,能提供更高的带宽防止发生故障。例如,eth0 和 eth1 可以聚集到称作 eth3 的 IEEE 802.3ad链路聚合;然后用 IP 地址配置接口 eth3。系统将这些聚集的适配器作为一个适配器来考虑。因此,可以像在任何以太网适配器上一样配置它们的 IP。
6、mode=5(balance-tlb)
自适应传输负载均衡:根据每个slave的负载(相对速度)决定从哪个接口发送数据包,从当前接口接收数据包。如果接收的slave接口故障,其它slave接口将接管它的mac地址继续接收。
前提:每个slave网卡支持ethtool获取速率。
7、mode=6(balance-alb)
自适应负载均衡:
前提:每个slave网卡支持ethtool获取速率
每个slave网卡支持启用时重新设置硬件地址
详细配置步骤:
1、bond0模式
vim /etc/sysconfig/network-scripts/ifcfg-bond0 # 创建虚拟网卡bond0
DEVICE=bond0 IPADDR=10.10.10.1 NETMASK=255.255.255.0 ONBOOT=yes BOOTPROTO=none USERCTL=no GATEWAY=10.10.10.254 vim /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE=eth0 BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes vim /etc/sysconfig/network-scripts/ifcfg-eth1 DEVICE=eth1 BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes # 设置完成后,重启网络服务来使用bond0生效 service network restart # bond模块会自动加载 cat /proc/net/bonding/bond0 # 查看目前bonding的状态 modprobe -r bonding;service network restart # 让bond模式生效
2、bond1模式配置
具体操作步骤就下面这步不同,其它一致。 vim /etc/modprobe.d/bond.conf alias bond0 bonding options bond0 miimon=100 mode=1 # 模式1 vim /etc/rc.d/rc.local # eth0 eth1的工作顺序(仅在主备模式下需要做这个设置,其他的模式不需要做这个设置) ifenslave bond0 eth0 eth1 注:在高可用的环境下,网卡配置bonding后,vip_nic要为bond0
3、bond4配置
vim /etc/sysconfig/network-scripts/ifcfg-bond0 # 创建虚拟网卡bond0 DEVICE=bond0 IPADDR=10.10.10.1 NETMASK=255.255.255.0 ONBOOT=yes
NM_CONTROLLED=no BOOTPROTO=none USERCTL=no GATEWAY=10.10.10.254 BONDING_OPTS="mode=4 miimon=100 lacp_rate=fast xmit_hash_plicy=laye3+4" # 其中mode=4说明该为bond4, 且lacp_rate和xmit_hash_plicy参数只有bond4需要。
laye3+4:源目IP+源目端口算法 用于三,四层网络环境 可根据源目端口来区分同一源目IP不同连接的数据,做的四层负载分担
laye2+3:源目MAC地址+源目IP算法 用于二,三层网络环境 用于三层转发情况下,源目mac地址唯一,源目IP地址不同情况
fast:表示lacp链路协商模式为快模式,表示每隔1s发送l次lacpdu,超时时间是3s (slow模式是发送时间30s,超时时间90s)
注:若要修改为bond0、bond1、bond6模式,只需要将该配置项中的mode参数设置为对应模式即可,如 bond1示例为BONDING_OPTS="mode=1 miimon=100", vim /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE=eth0 BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes vim /etc/sysconfig/network-scripts/ifcfg-eth1 DEVICE=eth1 BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes service network restart # bond模块会自动加载 cat /proc/net/bonding/bond0 # 查看目前bonding的状态 modprobe -r bonding;service network restart # 让bond模式生效