linux 4.12内核team是什么?team的四种模式和实例介绍


  team是个啥玩意?

  team实现的功能跟bond相似,team本质上也是一个虚拟的网卡驱动(networkdevicedriver),只不过并没有真实的物理网卡与之对应,而是由这个虚拟网卡去“管辖”一系列的真实的物理网卡,它的代码结构和一般网卡驱动的代码结构非常类似。

  team的四种模式

  主备模式:activebackup 只有一个网卡处于活跃状态,当一个宕掉另一个备份网卡马上切换到活跃状态。

  此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低, 只有一个网卡处于工作状态,在有 N 个网络接口的情况下,资源利用率为1/N。

  发包处理:从team口转发的包修改skb->dev字段为活跃dev,然后调用dev_queue_xmit进行发包

  收包处理:当netif_receive_skb收到包时,经过一系列处理之后,会调用skb->dev->rx_handler函数指针,team设备创建时注册为team_handle_frame。 从主网卡收到的包修改skb->dev字段为team口dev,然后返回netif_receive后续流程处理,此时返回值为RX_HANDLER_ANOTHER。 从备网卡收到的包修改skb->dev字段为team口dev,然后返回netif_receive后续流程处理,此时返回值为RX_HANDLER_EXACT。

  备注:当skb->dev->rx_handler返回值为RX_HANDLER_ANOTHER时,netif_recive_skb会goto至函数入口进行处理。 当返回值为RX_HANDLER_EXACT时,netif_recive_skb不会将skb交给上层协议处理。

  广播模式:broadcast 所有网卡设备均处于活跃状态,即在每个接口上传输每个数据包,此模式提供了容错能力,此模式增加了系统开销。

  发包处理:从team口转发包时,遍历当前team关联的接口列表,依次修改skb->dev字段为slave dev,并调用dev_queue_xmit发包。

  收包处理:在netif_receive_skb调用skb->dev->rx_handler时,会修改skb->dev字段为team口dev,并返回RX_HANDLER_ANOTHER。

  loadbalance负载均衡模式:loadbalance 所有网卡设备均处于活跃状态,根据port负载情况分配外出流量,同时如果其中某个port异常,另外的port会接管。此模式主要提升吞吐量,以及容错能力。

  发包处理:通过bfp提供的负载均衡算法获取一个hash索引,调用当前指定的hash算法传入hash索引获取相应的port 修改skb->dev字段为port dev,并调用dev_queue_xmit发包。

  收包处理:在netif_receive_skb调用skb->dev->rx_handler时,会修改skb->dev字段为team口dev,然后对skb进行判断 如果是LACPDU,则返回RX_HANDLER_EXACT,否则返回RX_HANDLER_ANOTHER。

  随机平衡策略:random 所有网卡均处于活跃状态,发包时以生成随机索引的方式选择网卡,同时如果某个port异常,则会停用,此模式一定程度提升了吞吐量,以及容错能力。

  发包处理:随机一个索引值,根据索引值检查对应port当前是否能发包,如果不能则遍历port_list,如果找到可用port,则选取当前port为发包接口。 然后修改skb->dev字段为查到到的port dev,并调用dev_queue_xmit发包。

  收包处理:在netif_receive_skb调用skb->dev->rx_handler时,会修改skb->dev字段为team口dev,并返回RX_HANDLER_ANOTHER。

  轮询平衡策略:roundrobin 所有网卡均处于活跃状态,发包时以依次累加的计数器为索引选择网卡,通过如果某个网卡异常,则会停用,此模式一定程度提升了吞吐量,以及容错能力。

  发包处理:以team->sent_packets为索引,查找slave设备并执行sent_packets++操作,检查获取到的port是否能发包,如果不能,则遍历port_list,找到 可用的port之后,修改skb->dev字段为查到到的port dev,并调用dev_queue_xmit发包。

  收包处理:在netif_receive_skb调用skb->dev->rx_handler时,会修改skb->dev字段为team口dev,并返回RX_HANDLER_ANOTHER。

  team模块初始化

  1.注册网络事件处理函数team_notifier_block

  2.注册netlink用于与用户态通信

  team设备创建

  1.用户态通过netlink通知内核创建team。

  2.调用rtnl_newlink函数,此函数会进行net_device及team相关私有数据的申请。

  3.在上一步中申请net_device时,会调用team_setup对dev->netdev_ops进行赋值。

  4.然后在dev->netdev_ops->ndo_init(在上一步中初始化为team_init)函数中对team相关进行初始化。

  添加port过程

  1.用户态通过netlink通知内核添加port,通过team_port_add函数实现主要功能。

  2.一系列参数检查,分配一个用于存放port信息的team_port结构体。

  3.对申请的team_port结构指针进行赋值,并修改open网卡设备。

  4.维护vlan、组播等相关数据结构。

  5.注册收包处理函数team_handle_frame。

  6.port添加至team->port_list。

  实例示范

  1.创建一个team接口,其中接口名为team0,模式为activebackup

  nmcli connection add type team con-name team0 ifname team0 config '{"runner":{"name":"loadbalance"}}'

  2.给team0设置ip地址

  nmcli connection modify team0 ipv4.method manual ipv4.addresses 172.16.254.79/24

  3.添加port

  nmcli connection add con-name team0-ens224 type team-slave ifname ens224 master team0

  nmcli connection add con-name team0-ens256 type team-slave ifname ens256 master team0

  4.启用网络

  启用team: nmcli connection up team0

  启用port: nmcli connection up ens224; nmcli connection up ens256

  5.显示team状态

  setup:

  runner: activebackup

  ports:

  ens224

  link watches:

  link summary: up

  instance[link_watch_0]:

  name: ethtool

  link: up

  down count: 0

  ens256

  link watches:

  link summary: up

  instance[link_watch_0]:

  name: ethtool

  link: up

  down count: 0

  runner:

  active port: ens224

  6.测试

  1.在局域网内的另一台机器ping172.16.254.79 测试结果:能ping通

  2.执行ifconfig ens224 down 测试ping结果:能ping通

  3.此时查看team0状态 teamdctl team0 stat; 发现active port变成了ens256

  4.执行ifconfig ens256 down 测试ping结果:ping不通

  5.此时查看team0状态teamdctl team0 stat; 发现active port为空

  6.执行ifconfig ens224 up 测试ping结果:又能ping通了,且active port为ens224

  7.删除网络组

  断开连接:nmcli connection down team0

  删除team port:nmcli connection delete team0-ens224;nmcli connection delete team0-ens256

  删除team:nmcli connection delete team0


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM