配置 linux-bridge mechanism driver - 每天5分鍾玩轉 OpenStack(77)


本節開始我們將學習 Linux Bridge 如何實現 Neutron 的各種功能。
首先需要配置 linux-bridge mechanism driver。

Neutorn ML2 plugin 默認使用的 mechanism driver 是 open vswitch 而不是 linux bridge。那是否還有研究 linux bridge 的必要呢?
我的答案是:很有必要!

原因如下:

  1. linux bridge 技術非常成熟,而且高效,所以業界很多 OpenStack 方案采用的是 linux bridge,比如 Rackspace 的 private cloud。

  2. open vswitch 實現的 Neutron 虛擬網絡較為復雜,不易理解;而 linux bridge 方案更直觀。先理解 linux bridge 方案后再學習 open vswitch 方案會更容易。並且可以通過兩種方案的對比更加深入地理解 Neutron 網絡。

在深入學習之前,我們先復習一下 linux bridge 實現虛擬交換節的基本原理。

上圖中,br0 是 linux bridge,br0 充當虛擬交換機的作用,負責將物理網卡 eth0 和虛擬網卡 tap 設備 vnet0/vent1 連接到同一個二層網絡,實現虛擬機 VM1 和 VM2,以及虛擬機與外網之間的通信。

關於 linux bridge 更詳細的內容請參考“預備知識 -> 網絡虛擬化” 相關章節。

配置 linux-bridge mechanism driver

要在 Neutron 中使用 linux bridge,首先需要配置 linux-bridge mechanism driver。 Neutron 默認使用 ML2 作為 core plugin,其配置位於 /etc/neutron/neutron.conf。

控制節點和計算節點都需要在各自的 neutron.conf 中配置 core_plugin 選項。

然后需要讓 ML2 使用 linux-bridge mechanism driver。 ML2 的配置文件位於 /etc/neutron/plugins/ml2/ml2_conf.ini。

mechanism_drivers 選項指明當前節點可以使用的 mechanism driver,這里可以指定多種 driver,ML2 會負責加載。 上面的配置指明我們只使用 linux-bridge driver。

控制節點和計算節點都需要在各自的 ml2_conf.ini 中配置 mechanism_drivers 選項。

Neutron 服務正常啟動后,所有節點上都會運行 neutron-linuxbridge-agent

linux-bridge mechanism driver 已經配置完畢,下一節會檢視當前的網絡狀態。
隨着各種 Neutron 功能的實踐,我們將看到這個網絡狀態會不斷的演變和發展。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM