一:服務器虛擬化
1.【重點】名詞解釋
(1)資源動態調整(對象是虛擬機)
管理員操作,對CPU、內存、網卡、硬盤、GPU進行調整。
FusionCompute支持虛擬機資源動態調整,用戶可以根據業務負載動態調整資源的使用情況。
虛擬機資源調整包括:
離線/在線調整vCPU數目
無論虛擬機處於離線(關機)或在線狀態,用戶都可以根據需要增加虛擬機的vCPU數目。虛擬機處於離線狀態時,用戶可以根據需要減少虛擬機的vCPU數目。通過離線/在線調整虛擬機vCPU數目,可以滿足虛擬機上業務負載發生變化時對計算能力靈活調整的需求。
離線/在線調整內存大小
無論虛擬機處於離線或在線狀態,用戶都可以根據需要增加虛擬機的內存容量。虛擬機處於離線狀態時,用戶可以根據需要減少虛擬機的內存容量。通過離線/在線調整內存大小,可以滿足虛擬機上業務負載發生變化時對內存靈活調整的需求。
離線/在線添加/刪除網卡
虛擬機在線/離線狀態下,用戶可以掛載或卸載虛擬網卡,以滿足業務對網卡數量的需求。
離線/在線掛載虛擬磁盤
無論虛擬機處於離線或在線狀態,用戶都可以掛載虛擬磁盤,在不中斷用戶業務的情況下,增加虛擬機的存儲容量,實現存儲資源的靈活使用。
引申:
在線增加CPU和內存可以在線生效,不需要重啟,但前提是需要開啟虛擬機的熱添加開關才行,CPU和內存都有熱添加,且對操作系統的版本也有一定的限制,不是所有的操作系統都支持在線增加CPU和內存。但是網卡和磁盤可以在線和離線添加或者刪除。
(2)動態資源調度DRS(對象是集群)
DRS,即動態資源調度(Dynamic Resource Scheduler):指采用智能負載均衡調度算法,並結合動態電源管理功能(DPM),通過周期性檢查同一集群資源內各個主機的負載情況,在不同的主機間遷移虛擬機,從而實現同一集群內不同主機間的負載均衡,並最大程度降低系統的功耗。
在FusionCompute中,可以配置集群動態資源調度功能:采用智能負載均衡調度算法,周期性檢查集群內主機的負載情況,在不同的主機之間遷移虛擬機,從而達到集群內的主機之間負載均衡目的。
集群的自動化級別有兩種:自動和手動。在自動調度模式下,系統會自動將虛擬機遷移到最合適的主機上。在手動操作模式下,系統會生成操作建議供管理員選擇,管理員根據實際情況決定是否應用建議。
資源調度可以配置不同的衡量因素,可以根據CPU、內存或CPU和內存進行調度。只有資源復用時,才會影響虛擬機性能。因此,如果未使用內存資源復用,建議配置為根據CPU調度。如果使用內存復用,建議配置為根據CPU和內存綜合調度。
資源調度的高級規則可以用來滿足一些特殊需求。例如兩台虛擬機是主備關系時,可以為其配置互斥策略,使其運行在不同的主機上以提高可靠性。
資源調度的分時閾值設置,可以滿足不同時段的調度需求。由於虛擬機遷移會帶來一定的系統開銷,所以建議在業務壓力較大時設置為保守策略,在業務壓力較小時設置為中等或激進策略,避免影響業務性能。
FusionCompute的計算集群,配合基於VIMS文件系統的共享存儲;DRS算法實時監控集群中每個計算節點的資源使用情況,引用VMOTION功能,智能遷移負荷高節點上虛擬機到資源充足的節點上;均衡各節點資源使用並保障業務有充足資源可用。因此,DRS是實現自動負載均衡的基礎
操作對象:1、內存 2、CPU 3、CPU+內存 第3點的關系是“且”的關系。達到負載高度時,只要一個達到就觸發。
引申:
虛擬機存在以下綁定關系時,動態資源調度對該虛擬機失效。
l 綁定主機
l 綁定USB設備
l 綁定直通設備
l 綁定GPU資源組(X86)
DRS需要共享的存儲
(3)動態資源管控QOS
即服務質量(quality of service),服務質量,為了在資源緊張的情況下,保障關鍵業務的體驗度。Qos包括CPUQos、內存QOS、磁盤Qos、網卡Qos。
-------------------------------------
- CPU資源份額
CPU份額定義多個虛擬機在競爭物理CPU資源的時候按比例分配計算資源。
以一個主頻為2.8GHz的單核物理主機為例,如果上面運行有三台單CPU的虛擬機。三個虛擬機A,B,C,份額分別為1000,2000,4000。當三個虛擬機CPU滿負載運行時,會根據三個虛擬機的份額按比例分配計算資源。份額為1000的虛擬機A的計算能力約為400MHz的,份額為2000的虛擬機B獲得的計算能力約為800MHz,份額為4000的虛擬機C獲得的計算能力約為1600MHz。(以上舉例僅為說明CPU份額的概念,實際應用過程中情況會更復雜)。
CPU份額只在各虛擬機競爭計算資源時發揮作用,如果沒有競爭情況發生,有需求的虛擬機可以獨占物理CPU資源,例如,如果虛擬機B和C均處於空閑狀態,虛擬機A可以獲得整個物理核即2.8GHz的計算能力。
- CPU資源預留:當份額>預留,優先選擇份額;當份額<預留,優先選擇預留;誰更大選擇誰;
CPU預留定義了多個虛擬機競爭物理CPU資源的時候分配的最低計算資源。
如果虛擬機根據份額值計算出來的計算能力小於虛擬機預留值,調度算法會優先按照虛擬機預留值的能力把計算資源分配給虛擬機,對於預留值超出按份額分配的計算資源的部分,調度算法會從主機上其他虛擬機的CPU上按各自的份額比例扣除,因此虛擬機的計算能力會以預留值為准。
如果虛擬機根據份額值計算出來的計算能力大於虛擬機預留值,那么虛擬機的計算能力會以份額值計算為准。
以一個主頻為2.8GHz的單核物理機為例,如果運行有三台單CPU的虛擬機A、B、C,份額分別為1000、2000、4000,預留值分別為700MHz、0MHz、0MHz。當三個虛擬機滿CPU負載運行時:
- 虛擬機A如果按照份額分配,本應得400MHz,但由於其預留值大於400MHz,因此最終計算能力按照預留值700MHz算。
- 多出的(700-400)MHz按照B和C各自的份額比例從B和C處扣除。
- 虛擬機B獲得的計算能力約為(800-100)MHz,虛擬機C獲得的計算能力約為(1600-200)MHz。
CPU預留只在各虛擬機競爭計算資源的時候才發揮作用,如果沒有競爭情況發生,有需求的虛擬機可以獨占物理CPU資源。例如,如果虛擬機B和C均處於空閑狀態,虛擬機A可以獲得整個物理核即2.8GHz的計算能力。
- CPU資源限額
控制虛擬機占用物理CPU資源的上限。以一個兩CPU的虛擬機為例,如果設置該虛擬機CPU上限為3GHz,則該虛擬機的兩個虛擬CPU計算能力被限制為1.5GHz。
-------------------------------------
- 內存資源份額
內存份額定義多個虛擬機競爭內存資源的時候按比例分配內存資源。
在虛擬機申請內存資源,或主機釋放空閑內存(虛擬機遷移或關閉)時,會根據虛擬機的內存份額情況按比例分配。
不同於CPU資源可實時調度,內存資源的調度是平緩的過程,內存份額策略在虛擬機運行過程中會不斷進行微調,使虛擬機的內存獲取量逐漸趨於比例。
以6G內存規格的主機為例,假設其上運行有三台4G內存規格的虛擬機,內存份額分別為20480、20480、40960,那么其內存分配比例為1:1:2。當三個虛擬機內部均逐步加壓,策略會根據三個虛擬機的份額按比例分配調整內存資源,最終三個虛擬機獲得的內存量穩定為1.5G、1.5G、3G。
內存份額只在各虛擬機競爭內存資源時發揮作用,如果沒有競爭情況發生,有需求的虛擬機可以最大限度地獲得內存資源。例如,如果虛擬機B和C沒有內存壓力且未達到預留值,虛擬機A內存需求壓力增大后,可以從空閑內存、虛擬機B和C中獲取內存資源,直到虛擬機A達到上限或空閑內存用盡且虛擬機B和C達到預留值。以上面的例子,當份額為40960的虛擬機沒有內存壓力(內存資源預留為1G),那么份額為20480的兩個虛擬機理論上可以各獲得最大2.5G的內存。
- 內存資源預留
內存預留定義多個虛擬機競爭內存資源的時候分配的內存下限,能夠確保虛擬機在實際使用過程中一定可使用的內存資源。
預留的內存被會虛擬機獨占。即,一旦內存被某個虛擬機預留,即使虛擬機實際內存使用量不超過預留量,其他虛擬機也無法搶占該虛擬機的空閑內存資源。
- 內存資源限額
控制虛擬機占用物理內存資源的上限。在開啟多個虛擬機時,虛擬機之間會相互競爭內存資源,為了使虛擬機的內存得到充分利用,盡量減少空閑內存,用戶可以在創建虛擬機時設置虛擬機配置文件中的內存上限參數,使服務器分配給該虛擬機的內存大小不超過內存上限值。
注意:內存資源限額需要開啟內存復用開關才有效,否則無法調整。
-------------------------------------
網絡Qos策略提供帶寬配置控制能力,Qos功能不支持同一主機上虛擬機之間的流量限制。包含如下方面:
l 基於端口組成員接口發送方向與接收方向的帶寬控制
l 基於端口組的每個成員接口提供流量整形、帶寬優先級的控制能力。
在端口組中配置,針對發送流量和接受流量流做Qos,有以下三種屬性
平均帶寬(某段時間內允許通過端口的平均每秒發送/接收位數)
峰值帶寬(發送/接收流量突發時,每秒鍾允許通過端口的最大傳輸位數)
突發大小(允許流量在平均帶寬的基礎上產生的突發流量的大小)
高級設置:
①DHCP隔離。
②IP與MAC綁定
③填充TCP校驗和
④接受和發送流量整形(平均帶寬、峰值帶寬和突發大小,發送流量整形中還包括優先級)⑤廣播抑制帶寬(防止虛擬機發送大量的廣播報文)。
-------------------------------------
磁盤Qos:
可設置虛擬機每個磁盤的IO上限,以避免某個虛擬機的磁盤IO過大,影響其他虛擬機的性能
存儲QOS在哪設置?
點擊虛擬機-磁盤-更多-設置磁盤IO上線(BPS和IOPS)
BPS:描述每秒IO大小
IOPS:每秒進行讀寫操作的次數
磁盤方面可以限制讀寫的IOPS和BPS。
什么是IOPS
IOPS全稱:Input/Output Operations Per Second,即每秒進行讀寫(I/O)操作的次數。
(4)動態電源管理DPM
DPM,動態電源管理(Dynamic Power Management),根據業務情況,智能地將部分物理機上下電。
對應FusionCompute中的“電源管理自動化”:電源管理自動化功能會周期性地檢查集群中服務器的資源使用情況,如果集群中資源利用率不足,則會將多余的主機下電節能,下電前會將虛擬機遷移至其他主機;如果集群資源過度利用,則會將離線的主機上電,以增加集群資源,減輕主機的負荷。
電源管理依賴於計算資源調度,因此電源管理只有在開啟計算資源調度,並且遷移閾值的設置不為"保守"時生效。
當系統的集群下主機的“最大CPU占用率和最大內存占用率超過了設定值,此時會開始執行調度策略,調度方式分為手動跟自動。
使用場景:
(1)夜間低負載,自動遷移虛擬機,下電空閑主機。
(2)白天業務需求上升,自動上電主機,遷移虛擬機到新上電主機。
引申:
上電:VRM通過CNA物理節點上的BMC完成上電動作(前提需要在VRM界面對主機配置服務器的BMC地址)。
下電:VRM通過VNA對CNA節點進行安全關機動作(通過命令行)。
沒有配置BMC可以使用DPM嗎?
不可以,只能下電不能上電。
DPM依賴於DRS
CPU和內存預留有什么區別?
CPU預留不會獨占CPU,內存預留會獨占內存。
DPM前提是什么?
配置BMC、BMC的用戶名密碼。
(5)彈性IP
彈性IP(Elastic IP,以下或簡稱EIP),是基於雲外網絡(以下簡稱外網,雲外網絡可以是外網Internet也可以是企業內部局域網)上的靜態IP地址,是可以通過外網直接訪問的IP地址,通過NAT方式映射到被綁定的實例上。
私有雲局域網(LAN)上各個實例配置的IP地址都是私有IP地址,無法訪問外網。當實例上的應用需要訪問外網時,可以通過綁定彈性IP的方式來實現VPC中的實例通過固定的外網地址與外網互通。
彈性IP可以與虛擬私有雲(Virtual Private Cloud,以下簡稱VPC)子網中關聯的彈性雲服務器(Elastic Cloud Server,以下簡稱ECS)、裸金屬服務器(Bare Metal Server,以下簡稱BMS)、虛擬IP(Virtual IP address,以下或簡稱VIP)、彈性負載均衡(Elastic Load Balance,以下簡稱ELB)等資源靈活地綁定及解綁 ,綁定了彈性IP 的實例可以直接使用這個 IP 進行外網通信,但是在實例上並不能看到這個IP地址。
作用:
彈性IP用於構建雲資源的外網出口,可與多種業務資源靈活地綁定與解綁,滿足各種業務訴求。
用戶可以將彈性IP綁定到ECS或BMS上,綁定后的ECS或BMS即可連接公網。
用戶可以為虛擬IP地址綁定一個彈性IP,從互聯網可以訪問后端綁定了同一個虛擬IP地址的多個主備部署的彈性雲服務器,增強容災性能。
用戶可以為負載均衡器綁定彈性IP,可以接收來自公網的訪問請求並將請求自動分發到添加的多台彈性雲服務器。
共享帶寬可提供多實例使用一條帶寬的功能,用戶根據實際業務情況,將對帶寬要求不高的實例加入共享帶寬。
多個彈性IP共享一條帶寬,相較於獨立帶寬大大節省帶寬使用成本。
提供Region級別的帶寬復用共享能力,節省帶寬使用的運營及運維成本。
共享帶寬擁有超大彈性峰值,用戶可根據實際情況通過調整帶寬大小來調整峰值。
可以和哪些服務綁定?
彈性IP地址(Elastic IP address,EIP)是可以通過Internet直接訪問的IP地址。彈性IP是一個靜態的公共IP地址,可以與彈性雲服務器、裸金屬服務器、虛擬IP、彈性負載均衡等資源靈活地綁定及解綁 。將彈性IP地址和子網中關聯的雲服務器綁定,可以實現雲服務器與Internet互通。
彈性IP一定公網IP嗎?
不一定,他也可以是企業內部的IP,即公司內部的一個內網網段給彈性IP使用。
彈性IP和ECS什么比列關系?
是1:1。也可以1:M(申請一個ELB,為這個ELB綁定一個EIP,這樣我們多個ECS就可以同時通過一個EIP出去了,也可以使用NAT網關實現)。
EIP和FIP有什么關系?
EIP=FIP
EIP是私有雲中雲服務的說法
FIP是OpenStack的說法
SNAT:
SNAT為公網地址與私網地址1:N映射,一個VPC共享一個且只有一個SNAT地址,按照subnet粒度使能。
Region Type I:采用純軟件的方式實現私有IP和外網IP的轉換(SNAT)。
Region Type II:采用硬件防火牆實現私有IP和外網IP的轉換(SNAT)。
EIP和SNAT區別?
EIP實現公網和私網1:1映射,SNAT是1:N。
EIP可以綁定給SNAT,實現子網內的所有彈性雲服務器可以訪問外部網絡(使用SNAT兩大因素:1、成本,因為公網IP價格貴。2、安全因素,防止外網直接訪問ECS)。
Type1/2中EIP的實現流程:
Type1:
(1)在Service OM創建EIP對應的外部網絡,設置標簽為internet類型並創建子網。
(2)在網絡設備(綜合接入交換機、核心交換機和NGFW)上配置等價路由,將彈性IP流量路由到軟NAT(Nat-server)節點。
(3)SC上為VDC租戶分配外部網絡。
(4)租戶申請EIP服務。
(5)最后綁定EIP。
Type2:
(1)在AC上面創建外部網關,選擇“L3共享出口”,填寫規划的EIP網絡名稱。
(2)在Service OM上創建以AC上面創建的外部網關名稱為前綴的外部網絡。給外部網絡打標簽,網絡類型選擇Internet。創建子網,子網填寫規划的EIP網段。
(3)SC上為VDC租戶分配外部網絡
(4)租戶申請EIP服務。
(5)最后綁定EIP。
EIP實現原理?
在ECS界面上創建虛擬機的時候指定EIP,或者在VPC的EIP頁面和ELB頁面上配置EIP,各個UI(比如ECS UI、ELB UI)調用VPC service提供的EIP的接口下發配置。
VPC Service調用OpenStack Neutron提供的原生的floatingip接口配置EIP。
Neutron-server通過RPC通知neutron agent創建NAT規格。
EIP是怎么實現的?
Region Type I:采用純軟件的方式實現私有IP和外網IP的轉換。
Region Type II:采用硬件防火牆實現私有IP和外網IP的轉換。
彈性IP綁定彈性雲服務器后如何由外部進行訪問?
彈性IP綁定彈性雲服務器后,為保證彈性雲服務器的安全性,每個彈性雲服務器創建成功后都會加入到一個安全組中,安全組默認外網對內訪問是禁止的 ,所以需要在安全組中添加對應的入方向規則,才能從外部訪問該彈性雲服務器。
在安全組規則設置界面,用戶可根據實際情況選擇TCP、UDP、ICMP或ANY類型。
什么是虛擬IP?
虛擬IP地址(Virtual IP address, VIP)是私有IP地址的一種,擁有私有IP地址同樣的網絡接入能力,您可以通過其中任意一個IP(私有IP/虛擬IP)訪問雲服務器。
虛擬IP主要用在雲服務器的主備切換,達到高可用性HA(High Availability)的目的。多個主備部署的雲服務器可以在綁定虛擬IP地址時選擇同一個虛擬IP地址。用戶可以為該虛擬IP地址綁定一個彈性IP地址,從外網可以訪問后端綁定了同一個虛擬IP地址的多個主備部署的雲服務器,增強容災性能。
(6)內存復用
內存復用是指在服務器物理內存一定的情況下,通過綜合運用內存復用單項技術(內存氣泡、內存共享、內存交換)對內存進行分時復用。通過內存復用,使得虛擬機內存規格總和大於服務器規格內存總和,提高服務器中虛擬機密度。
內存共享+寫時復制:虛擬機之間共享同一物理內存空間(藍色),此時虛擬機僅對內存做只讀操作。當虛擬機需要對內存進行寫操作時(紅色),開辟另一內存空間,並修改映射(使用 KMS)(多台虛擬機共享數據內容為零的內存頁(新版本叫共享數據內容相同的內存頁))。
內存置換:虛擬機長時間未訪問的內存內容被置換到外部存儲中,並建立映射,系統需要使用這些數據時,再與預留在內存上的數據進行交換。
內存氣泡:系統主動回收虛擬機暫時不用的物理內存,分配給需要復用內存的虛擬機。內存的回收和分配均為系統動態執行,虛擬機上的應用無感知。整個物理服務器上的所有虛擬機使用的分配內存總量不能超過該服務器的物理內存總量。
作用:當出現競爭時,由內存復用策略為虛擬機實時調度內存資源,綜合運用內存復用技術釋放虛擬機的空閑內存,為其他虛擬機的內存需求提供條件。
價值(應用場景上):
通過內存復用技術,可降低運營商或企業的成本。
l 當計算節點的內存數量固定時,可以提高計算節點的虛擬機密度。
l 當計算節點的虛擬機密度固定時,可以節省計算節點的內存數量。
限制條件:
- 每個計算節點上運行的所有虛擬機的預留內存之和不能大於節點虛擬化域內存總和。
- 舊版6.1之前:與Guestnuma、inic網卡沖突,Guestnuma、inic網卡會獨占內存。與內存復用沖突。(考試不提)
- 新版6.3之后:內存復用與SRIOV直通、GPU直通、NVME SSD盤直通特性互斥。直通設備的虛擬機必須內存獨占,內存獨占后虛擬機的內存不會被交換到交換空間。內存復用的虛擬機不能直通設備。
- 主機需要配置足夠的交換空間才能保證內存復用功能的穩定運行。主機最大內存復用率依賴於swap空間大小配置,具體計算公式如下:
主機支持的最大內存復用率=1+(主機swap空間大小-虛擬化域物理內存大小*0.1)/虛擬化域物理內存大小。
內存共享+寫時復制:共享的是相同的數據,別答零頁數據,零頁數據雖然也可以,但是不全面。
引申:
內存復用作用的對象是主機還是集群?
集群
內存共享頁一定不可以寫嗎?
不一定,我們只是不建議寫,因為寫了之后,會造成數據共享,那么其他虛擬機可能會看到這台虛擬機寫的數據。
內存復用技術在哪里開啟?
在FusionCompute界面中集群開啟。
內存復用可以復用多少?
最大支持150%復用率。
PS:
虛擬機內存復用比到120:觸發告警。
虛擬機內存復用比到150:無法創建新的虛擬機。
內存復用比可以調么?
不能
內存具體是被什么管理的?
VMM(可以說虛擬化監控器或者虛擬化層)
內存氣泡怎么將內存分配給其他虛擬機的?
是通過修改映射關系將內存分配給其他虛擬機的。
內存復用的3項技術可以單獨使用某一個嗎?
不可以,開啟內存復用后,3項技術必須同時使用,不能單獨使用。
內存復用技術開啟對虛擬機性能有影響么?
內存復用技術默認不開啟,開啟后對虛擬機有一定影響,通過內存復用3項技術可知,虛擬機使用內存時會有一定的延遲。
1、內存共享中的寫時映射動作會增加延遲。
2、內存置換中將內存中的數據置換到外部存儲會影響性能。
3、內存氣泡中內存的回收也是會增加延遲的。
關閉內存復用要注意什么?
將集群內所有運行中的虛擬機的內存預留設置:內存預留=內存規格。
誰監控內存不足?
Hypervisor
內存置換,為什么不直接從硬盤的數據返回給用戶,要置換回內存,再給用戶?
從硬盤直接讀取數據的話相對比較慢,因為在硬盤中還要進行數據的檢索會浪費時間,性能相對較低,而且對於用戶讀取數據的流程一般都是先讀緩存,因為速度較快性能較好,這也是為什么要置換回內存的主要原因。
內存置換,是換到主機磁盤還是虛擬機磁盤(外部存儲)?
主機本地硬盤,且是虛擬化的數據存儲,使用的技術是Linux的Swap分區技術。
3種技術都有影響嗎?
都有。內存共享因為要開辟新的寫空間,導致性能下降。內存置換,因為要把數據存放在外部存儲上,數據調用時需要訪問外部存儲。內存氣泡因為要做內存的回收和重分發,會有性能影響。
哪種內存復用性能影響最大?
內存置換,因為其他兩個都是虛擬機內部交換的,內存置換是虛擬機內部和外部存儲之間交換。可以使用SSD硬盤提高交換速度。
實現內存超分配是用的哪一種技術?
內存氣泡,其它兩種技術用來配合內存氣泡使用,提供更多的空閑內存。
內存復用開關默認開啟么?
不開啟
你覺得內存復用哪項技術最好?
個人認為是內存共享,因為內存共享會把相同的數據進行共享,這樣節省了內存,寫時各自也有獨立的空間。
內存復用率依賴於swap空間大小配置,具體計算公式如下:
主機支持的最大內存復用率=1+(主機swap空間大小-虛擬化域物理內存大小*0.1)/虛擬化域物理內存大小
內存置換長期不使用的數據放到外部存儲空間,如何去判斷?
根據數據的熱點訪問因子,長期不用的,熱點訪問因子低的,LRU隊尾機制。
(7)快照
快照是什么?
快照是(虛擬機)某一時刻下數據的一個副本或復制。(可以認為是一個備份)
或者說快照是特定數據集的一個完整可用拷貝,該數據集包含源數據在拷貝點的靜態映象,快照可以是數據再現的一個副本或者復制。
快照技術的分類有哪些?
全拷貝、差分拷貝(寫即拷貝 COW,寫即重定向 ROW)
全拷貝快照:
在快照時間點到來之前,首先要為源數據卷創建並維護一個完整的物理鏡像卷:同一數據的兩個副本分別保存在由源數據卷和鏡像卷組成的鏡像對上。如果在某一時間需要對整個鏡像卷做備份,需要停止對源卷的IO讀寫應用,然后將鏡像關系終止,拆分鏡像從而獲得在主機停止IO時的完整鏡像,鏡像卷轉化為快照卷,獲得一份數據快照,快照卷在完成數據備份等應用后,將與源數據卷重新同步,重新成為鏡像卷。
COW:
COW在創建快照時,並不會發生物理的數據拷貝動作,僅是拷貝了原始數據所在的源數據塊的物理位置元數據。因此,COW快照創建非常快,可以瞬間完成。在創建了快照之后,快照軟件會監控跟蹤原始數據的變化(即對源數據塊的寫操作),一旦源數據塊中的原始數據被改寫,則會將源數據塊上的數據拷貝到新數據塊中,然后將新數據寫入到源數據塊中覆蓋原始數據。新數據塊就組成了快照卷。COW有一個很明顯的缺點,就是會降低源數據卷的寫性能,因為每次改寫新數據,實際上都進行了兩次寫操作。(例如新數據D’更新原始數據D。此時在D’覆蓋D之前,需要先把D拷貝到快照卷中,並且更新快照數據指針表的記錄使其指向新的存儲地址。最后再將D’寫入到D原來的位置,源數據指針表不需要更新。)
ROW:
ROW的實現原理與COW非常相似,區別在於ROW對原始數據卷的首次寫操作,會將新數據重定向到預留的快照卷中。在創建快照之后,也就是在快照時間點之后,發生了寫操作,那么新數據會直接被寫入到快照卷中,然后再更新源數據指針表的記錄,使其指向新數據所在的快照卷地址。
ROW與COW最大的不同就是:COW的快照卷存放的是原始數據,而ROW的快照卷存放的是新數據。ROW在傳統存儲場景下最大的問題是對讀性能影響比較大。
ROW(寫前重定向):寫直接寫快照卷,讀:先讀快照、再讀原卷 讀性能會有所影響,特別多次快照之后,讀性能會有較大影響(可能會出現比較嚴重的數據碎片化)
COW(寫前復制):寫:假如原位置有數據,先將數據復制到快照卷中,再把新數據寫到原卷中。寫性能會有較大影響。讀,直接讀原卷。
全拷貝:將數據完全鏡像一份,優點:快照可以不依賴原卷 缺點:十分占用空間
對虛擬機做快照:1、虛擬機本身的描述文件 2、虛擬磁盤
什么是一致性快照?什么是內存快照?
一致性快照:快照創建時會將虛擬機當前未保存的緩存數據先保存,再創建快照。
內存快照:快照創建時會保存虛擬機當前內存中的數據。
引申:
創建快照時,當前磁盤被置為只讀,系統自動在磁盤所在數據存儲中創建增量磁盤,后續對該磁盤數據的編輯將保存在增量磁盤中,即增量磁盤表示磁盤當前狀況和上次執行快照時的狀況之間的差異。對該磁盤再次創建快照時,原磁盤和當前增量磁盤均被置為只讀,系統會在數據存儲中再創建一個增量磁盤。
如果該虛擬機有多個快照,則在刪除快照后,該快照內的數據會自動合並到該虛擬機的下一個快照中。(比如創建了3個快照,此時刪除最后一個快照,那么快照3的內容會合並到快照2中)
應用場景:
虛擬機用戶在執行一些重大、高危操作之前,例如系統補丁、升級、破壞性測試前執行快照,可以用於故障時的快速還原。
華為的FusionCompute默認使用的是什么快照技術?
ROW
什么類型的磁盤可以進行快照?
支持虛擬化數據存儲的磁盤。
(8)HA
解釋(概念):
虛擬機高可用性是當計算節點上的虛擬機出現故障時,系統自動將故障的虛擬機在正常的計算節點上重新創建,使故障虛擬機快速恢復。
當系統檢測到虛擬機故障時,系統將選擇正常的計算節點,將故障虛擬機在正常的計算節點上重新創建。
原理:
管理節點會自動查詢VM狀態,發現故障后會查看VM是否有HA屬性,如果開啟了HA屬性會把故障機的規格信息發給可用的CNA並啟動這台虛擬機,啟動過程中會將VM之前的卷重新掛載,包括用戶卷。
怎么觸發HA?
- 主機發生宕機、上下電、重啟的時候
- 虛擬機系統放生故障的時候:window藍屏、Linux Panic
- CAN與VRM心跳中斷30秒的時候
- 系統故障檢測,通過在主機之間實行網絡心跳檢測,發現沒有主機與虛擬機沒有IO行為的時候觸發HA(整個行為與VRM無關)
預留方案
HA資源預留:在整個集群內按照配置的值預留CPU與內存資源,該資源僅用於虛擬機HA功能使用。
使用故障專用切換主機:預留故障專用切換主機,平時該主機不對外提供業務。
集群允許主機故障設置:設置集群內允許指定數目的主機發生故障,系統定期檢查集群內是否留有足夠的資源來對這些主機上的虛擬機進行故障切換。
條件:
- 安裝Tools(實驗證明,沒有tools也能HA)。且正常運行;
- 其他主機有預留HA資源,不能處於維護模式;
- 共享存儲;
- VM不能綁定主機,USB設備和GPU;
- 集群開啟HA功能。
整個HA過程數據會丟失嗎?
1、有業務下發,會丟失,會丟失未落盤的數據。
熱遷移和HA有什么區別?
熱遷移不會中斷業務(用戶無感知),HA會中斷業務(HA觸發時,業務已中斷)
熱遷移是計划性遷移,HA是非計划性遷移
虛擬機HA之后兩台虛擬機是否一樣?
是一樣的,但是HA過程中如果有新數據下發,則會丟失HA過程中的數據。
虛擬機故障處理策略
l 不處理
l 重啟虛擬機
l HA虛擬機
l 關閉虛擬機
(9)鏈接克隆
鏈接克隆是一種通過將鏈接克隆母卷和鏈接克隆差分卷組合映射為一個鏈接克隆卷,這個卷是VM系統盤,提供給虛擬機使用的技術。其中鏈接克隆母卷為只讀卷,多個鏈接克隆虛擬機共用一份,鏈接克隆差分卷是讀寫卷,其存儲是精簡配置的,每個鏈接克隆虛擬機一份,保存了每個虛擬機差異化的數據。鏈接克隆技術具有創建速度快、占用存儲空間小、支持模版批量更新的優點,非常適合於同質化用戶、桌面高度標准化場景。
2. 虛擬磁盤文件的格式?
固態磁盤文件(普通)
動態磁盤文件(精簡&普通延遲置零)
差分磁盤文件(快照、鏈接克隆)
1、固態磁盤文件:創建時需要將磁盤文件對應的存儲塊空間全部進行初始化成”0”,
創建的時候,由於需要全部空間都寫0,需要消耗較長時間,創建比較慢。但在寫數據的時候,可以寫數據,IO性能較好
應用在系統中的普通卷。
2、動態磁盤文件:創建時只需寫頭和結束塊
創建的時候,只需要在頭和結束塊寫0,不需要消耗時間,創建比較快,但在寫數據的時候,需要先置0,再寫數據,相對來說,IO性能較好。當動態磁盤文件使用時間越長,性能也就越接近固態磁盤文件。
應用於精簡磁盤和普通延遲置零磁盤。
3、差分磁盤文件:差分磁盤的結構和動態磁盤一模一樣,只是文件頭中會記錄它的父文件路徑。
快照、非持久化磁盤、鏈接克隆等
3. 非持久化磁盤和持久化磁盤?
存儲時非持久化,如內存盤,虛擬機關機后,磁盤恢復到原始狀態
持久化數據存儲指硬盤等能夠持久存儲數據的空間,虛擬機關機后,數據還會在
4. 模版文件類型?
虛擬機模板格式分為ova和ovf兩種。其中ova格式的模板只有一個ova文件。ovf格式的模板由一個ovf文件和多個vhd文件組成,規則如下:
ovf文件:虛擬機的描述文件,文件名為導出模版時設置的文件名,如“template01.ovf”。
vhd文件:虛擬機的磁盤文件,每個磁盤生成一個vhd文件(虛擬機的磁盤不算,在FC中看到的一個磁盤才算一個Vhd),文件名為:“模版名稱-磁盤標識.vhd”,如“template01-sdad.vhd”。
5.【重點】兩VM不通?
虛擬機側:
虛擬機故障或者網卡故障。
同網段:1.虛擬機的操作系統的防火牆攔截。
2.IP地址或掩碼配置有誤(假如A:192.168.1.1/23 B:192.168.1.2/24 A ping B,A會認為B與自己同網段,B收到A的arp消息,通過子網掩碼去匹配發現A與其不同網段,則發給網關)。
不同網段:1.網關配置錯誤。
中間系統
1.同一主機、同一DVS、同一二層,也就是虛擬機1和2不通:可能是虛擬機在不同的端口組,那么可能是端口組類型或者VLAN配置錯誤。
2.不同主機、同一DVS、同一二層,也就是虛擬機1和3不通:TOR交換機可能端口配置錯誤或者端口未設置為Trunk,可能未放行相應的VLAN、或者PVID配置錯誤。
3.同一主機、同一DVS、不同二層,也就是虛擬機1和2不通:TOR交換機可能端口配置錯誤或者端口未設置為Trunk,可能未放行相應的VLAN、或者PVID配置錯誤(VM和TOR交換機pvid一定要不一致)、ACL策略攔截、網關配置錯誤、網關無法路由或者被路由器攔截。
4.不同主機、不同DVS,也就是虛擬機1和4不通:由於不同DVS分別屬於不同的物理網絡,所以虛擬機1和4天然不通。
5.對虛擬機配置了安全組,並被安全組策略攔截(安全組功能由虛擬機所在主機的 iptables
實現)
物理原因:
可能是網線出問題了,可能是服務器或者交換機的網口出問題了,可能是交換機出問題了,可能是物理服務器或者CAN出問題了。
故障排錯:
虛擬機1和2不通舉例
二層情況下:ping目標VM,不通
查看arp表(不ping是因為剛ping完),如果有arp條目,則被可能被防火牆或第三方軟件攔截。如果不存在,則說明時二層問題。
三層情況下:在源目查看arp表是否存在各自的網關,如果不存在,則是本端二層有問題
存在的話,各自ping下自己的網關看看是否能通,不能通還是二層問題,通的話,再ping對端VM的網關,通則可能被防火牆或第三方軟件(為什么要ping網關,因為可能arp條目老化時間到了,ping是為了讓arp重新有網關條目)。
如果在不同路由器下,則可能是路由問題,用tracert
二層問題:
檢查虛擬機網口配置,查看連接的端口組
看是否在同一CAN主機,不在看條件是否允許遷移至同一主機,如果通,則可能是物理網絡配置問題(到交換機上檢查是否允許VLAN通過)
可以在不同DVS上划分相同的VLAN,因為兩個不同物理網絡的VLAN可以相同,這是兩個不同的二層。
注意:對PVID不熟的建議不要提,避免考官挖坑。
引申:虛擬機單通什么原因?就是A能ping通B,B不能ping通A
1、虛擬機1開了防火牆,虛擬機2關閉了,導致單通。
2、安全組攔截了。(不一定)
3、物理交換機設置了ACL策略。(怎么查看ACL配置?display acl)
ACL策略攔截,通過命令在TOR交換機如何查看?
比如dis cu、dis this、dis acl等等(這都是簡寫,具體可以看看華為交換機的手冊)
虛擬機不通快速定位?
比如VM1和VM3不通快速定位,首先我們將VM3遷移致CNA01中,然后去ping,如果能通,那么是TOR交換機的問題,如果不通就是DVS的問題。
虛擬機1和虛擬機4要通怎么做?
可以把2個TOR交換機打通,此時分情況考慮,如果是2層的話,只要在TOR交換機之間配置Trunk,且放行相應的VLAN就行了。如果是3層的話,除了TOR交換機之間配置Trunk和放行相應的VLAN外,還要配置路由(靜態路由或者OSPF等等),使得3層互通。
PVID導致2VM不通過程:
Trunk口VLAN ID和PVID相同,從該口發出數據報文時,就會去掉Tag
紅色:發包
綠色:回包
由圖可知,回包時會丟棄改報文(因為發送報文時,會檢測自身tag是否與PVID一致,如果一致則去掉tag標簽發送出去)。
虛擬機網關在哪里?
可以在核心交換機上,也可以是路由器,不過一般都是在核心交換機上。
中繼場景下,同一個ip網段的虛擬機但是不同vlan能不能只通過中繼這個端口組通信?
不能。
同主機同vlan,主機網卡壞了,能通嗎?
能通信,由於同主機同VLAN是二層通信,只需要通過虛擬交換機,不需要借助主機網卡
不同網段同VLAN可以通信嗎?
可以,可以在交換機下的VLANIF下配置2個網段的網關
同網段不同VLAN可以通信嗎?
可以,可以配置Super VLAN
端口組的VLAN可以設置為0嗎?
可以,0表示不帶標簽(或者說Tag)
VLAN池范圍是多少?
1-4094
怎么看2台虛擬機在不在同一個主機?
在VRM上看最直接
VM網卡MAC可以修改嗎?
可以修改,但前提是虛擬機關機后才可以修改,在“虛擬機——硬件——網卡”進行修改。
同主機同DVS同端口組中的虛擬機,通信時走不走外部網絡?
不走
一台主機上兩個不同的DVS,不同的vlan之間通信,走不走外部網絡?
走
同一主機同一VLAN,主機網卡壞了,兩虛擬機能通嗎?
能通,他們走的是內部OVS
端口組有什么類型?
有普通和中繼。
端口組的普通類似於物理交換機的access,端口組的中繼類似於物理交換機的trunk,普通類型的虛端口只能屬於一個VLAN,中繼類型的虛端口可以允許多個VLAN接收和發送報文。普通虛擬機選擇普通類型的端口,虛擬機的網卡啟用VLAN設備的情況下選擇中繼類型的端口,否則虛擬機的網絡可能不通。
在交換機怎么配置端口?
舉例:
Interface g0/0/1
Port link-type access/trunk/hybrid(一般都是trunk)
Port default vlan xx(access)
Port trunk allow-pass vlan xx(trunk)
Port hybrid vlan xx untagged(hybrid)
安裝CNA時,管理平面用Vlan50,交換機上怎么配?打tag還是不打tag?
交換機配置trunk且放行Vlan50就行,不打tag
中繼有什么作用?
端口組配置為中繼的方式后,可以在Linux虛擬機內創建多個VLAN設備,這些VLAN設備通過1個虛擬網卡即可以收發攜帶不同VLAN標簽的網絡數據包。使虛擬機不用創建多個虛擬網卡,即可收發攜帶不同VLAN標簽的網絡數據包。
假設情景:a虛擬機有1和2兩個網卡,b虛擬機有1網卡,ab虛擬機的1網卡能通,a虛擬機的2網卡和b虛擬機的1網卡不通是為什么?
可能是a虛擬機的1和2兩個網卡綁定的vlan端口組不同,a虛擬機的1網卡和b虛擬機的1網卡屬於同一vlan端口組,a虛擬機的2網卡和b虛擬機的1網卡不在一個vlan端口組內。
兩台VM原本能通,突然不通了?判斷原因
首先就是排查硬件設備是否故障,比如交換機是否斷電,發生故障,網卡是否有問題等,若排除了硬件問題后,將兩個VM遷到其他正常運行的CAN節點上,看兩個VM是否能通,能通就說明是原來的cna節點有問題,將該cna上的虛擬機遷走,重啟cna,完成后試一下能否ping通對應的網關,能通再將倆個vm遷回來,應該兩個VM能通了。
兩個虛擬機是二層互通還是三層互通?
既可以二層互通也可以三層互通。二層只要配置Trunk且放行相應的VLAN即可,如果同主機,配置相同的端口組就行。三層下除了在二層的基礎上,還要配置路由才能使得兩個虛擬機互通。
7. 存儲虛擬化
1、裸設備+邏輯卷 非虛擬化數據存儲 性能較好
2、主機存儲虛擬化+文件系統 虛擬化數據存儲 san(vims) 本地磁盤(ext4) nas(nfs)性能較差,應用於快照、鏈接克隆、精簡配置等
3、存儲設備虛擬化 FusionStorage、advanced san
擴展:
裸設備+邏輯卷:通過給宿主機(CNA)掛載塊設備,宿主機采用DeviceMapper的內核模塊對塊設備空間進行邏輯划分成邏輯卷,此時邏輯卷即為虛擬磁盤。在FusionCompute的環境中,非虛擬化的本地數據存儲、非虛擬化的SAN數據存儲就是采用該方式實現。
存儲設備虛擬化:賦予虛擬化平台的管理節點(VRM)管理存儲設備的能力(添加存儲資源),
在VRM界面上操作創建虛擬磁盤后,VRM會通過控制流在存儲設備上創建相應塊設備
(AdvanceSAN為LUN,FusionStorage為卷)。在VRM界面上將該類虛擬磁盤掛載給某台虛擬機並點擊打開電源后,VRM會通過控制流在存儲設備上將LUN或卷映射給即將運行虛擬機的CNA主機,CNA主機再通過RDM的方式將映射上來的塊設備掛載給虛擬機。
主機存儲虛擬化+文件系統:1.通過給宿主機(CNA)掛載塊設備,CNA主機對其格式化成文件系統(本地硬盤:ext4、SAN:VIMS,添加數據存儲時選擇虛擬化的數據存儲),並通過文件的形式存放虛擬磁盤。2.通過給宿主機(CNA)掛載共享文件系統(NFS),並通過文件的形式存放虛擬磁盤。
引申:
FusionStorage是不是虛擬化數據存儲?
不是,虛擬化數據存儲特指由CNA自身實現的虛擬化特性,例如快照、精簡磁盤等,即對應存儲虛擬化為主機存儲虛擬化+文件系統。FusionStorage支持虛擬化特性,是通過FusionStorage存儲系統自身機制實現的,CNA並未參與。
9. 如何給一個FC添加一個數據存儲?
1、在FC上,添加存儲資源(名字、類型、IP)
2、在存儲側創建lun,創建lun
創建主機,創建主組 添加映射關系
3、在FC上,存儲資源,關聯主機
4、在FC上,掃描存儲設備,會掃出前面所映射單元
5、在FC上,把存儲設備添加為數據存儲。(虛擬化、非虛擬化、裸設備映射)
10.【一般】主機和VRM心跳連接異常的原因有哪些?怎么解決?
可能原因:1.CNA節點下電。2.網絡出現異常。3.CNA節點管理網口異常。4.CNA節點進程異常。
解決辦法:
1.在告警信息中確認異常主機的IP和BMC IP;
2.登錄BMC,檢查主機是否下電;
3.如果是下電狀態,選擇上電,待主機上電成功后,查看告警是否清除;
4.用putty登錄VRM后台,嘗試ping主機的ip,如果不通,檢查網絡問題。如果通的話,用putty登錄CNA節點,service vnad status 查看vnad服務是否啟動,如果沒有啟動,service vnad restart。
11. 什么是雲計算,雲計算與虛擬化的區別?雲計算一定要虛擬化嗎?
雲計算和虛擬化區別時要明確雲計算是一種服務模式,是多種技術的集合,面向的是用戶,虛擬化是一種具體技術,他只是雲計算使用的多種技術之一。
雲計算是一種模型,它可以隨時隨地、便捷地按需從資源池中取得資源,並能夠使資源快速供應和釋放,從而減輕管理人員的工作量,並與服務供應商的交互減小到最低限度。
雲計算優勢:雲計算主要偏向於服務的管理與業務的自動化運營,使業務的上線周期大大的縮短,同時它能夠屏蔽底層的資源提供方式,做到兼容異構,用戶只需關心自己需要的資源是什么有多少,不需要關心雲計算提供商資源是如何提供的。
虛擬化是一種具體的技術,實現的是對硬件資源的虛擬化,提升資源利用率,降低能耗。雲計算是一種概念各種技術組件的集合,針對的是對各種資源的管理和調度,面向的是服務層面,虛擬化只是雲計算使用的技術之一,沒有虛擬化技術也可以用物理硬件來實現雲計算。
引申:
什么是KVM?
KVM全稱Kernel-based Virtual Machine,中文名稱基於內核的虛擬機,是一種用於Linux內核中的虛擬化基礎設施,可以將Linux內核轉化為一個虛擬機監視器(Hypervisor)。KVM是開源軟件,其還需要一個經過修改的QEMU軟件(qemu-kvm),作為虛擬機上層控制和界面,且需要硬件支持虛擬化技術(如Intel VT或AMD-V)。
KVM只實現計算虛擬化,即CPU+內存,IO虛擬化由qemu完成。
雲計算的關鍵特征:
- 按需自助服務(On-demand Self-service)
- 無處不在的網絡接入(Ubiquitous network access)
- 與位置無關的資源池(Location independent resource pooling)
- 快速彈性(Rapid Elastic)
- 按使用付費(Pay per user)
OpenStack和虛擬化的差別:
OpenStack是雲操作系統,故其目的是為了屏蔽底層的差異,進行向上提供統一的、抽象接口。而底層的差異包含來自虛擬化間的差異。所以從架構上OpenStack在虛擬化的上面。
解釋下IaaS、PaaS、SaaS:
l IaaS:基礎設施即服務,指的是把基礎設施以服務形式提供給最終用戶使用。包括計算、存儲、網絡和其它的計算資源,用戶能夠部署和運行任意軟件,包括操作系統和應用程序。例如:虛擬機出租、網盤等。
l PaaS:平台即服務,指的是把二次開發的平台以服務形式提供給最終用戶使用,客戶不需要管理或控制底層的雲計算基礎設施,但能控制部署的應用程序開發平台。例如:微軟的Visual Studio開發平台。
l SaaS:軟件即服務,提供給消費者的服務是運行在雲計算基礎設施上的應用程序。例如:企業辦公系統。
解釋下公有雲、私有雲、混合雲。各自的應用場景,舉例說明公有雲:
l 私有雲:一般由一個組織來使用,同時由這個組織來運營。華為數據中心屬於這種模式,華為自己是運營者,也是它的使用者,也就是說使用者和運營者是一體,這就是私有雲。
l 公有雲:就如共用的交換機一樣,電信運營商去運營這個交換機,但是它的用戶可能是普通的大眾,這就是公有雲。
l 混合雲:它強調基礎設施是由二種或更多的雲來組成的,但對外呈現的是一個完整的實體。企業正常運營時,把重要數據保存在自己的私有雲里面(比如:財務數據),把不重要的信息放到公有雲里,兩種雲組合形成一個整體,就是混合雲。比如說電子商務網站,平時業務量比較穩定,自己購買服務器搭建私有雲運營,但到了聖誕節促銷的時候,業務量非常大,就從運營商的公有雲租用服務器,來分擔節日的高負荷;但是可以統一的調度這些資源,這樣就構成了一個混合雲。
12.【重點】服務器虛擬化架構
6.3.1的FC(老版本):
FusionSphere邏輯架構:
FusionSphere eSDK:
可選部件
FusionSphere eSDK是FusionSphere服務器虛擬化北向統一接口,第三方網關系統和其他運營平台可以通過eSDK輕松完成無縫對接。eSDK開放了FusionSphere服務器虛擬化的全部能力,包括虛擬機的生命周期管理,虛擬化高級功能,運維管理功能等。
6.5.0的FC(老版本,目前考試說這個版本)
FusionCompute
必選部件
FusionCompute是雲操作系統軟件,主要負責硬件資源的虛擬化,以及對虛擬資源、業務資源、用戶資源的集中管理。它采用虛擬計算、虛擬存儲、虛擬網絡等技術,完成計算資源、存儲資源、網絡資源的虛擬化。同時通過統一的接口,對這些虛擬資源進行集中調度和管理,從而降低業務的運行成本,保證系統的安全性和可靠性,協助運營商和企業構築安全、綠色、節能的雲數據中心能力。
FusionManager
可選部件
FusionManager主要對雲計算的軟件和硬件進行全面的監控和管理,實現同構,異構VMware虛擬化多資源池管理,軟硬件統一告警監控,並向內部運維管理人員提供管理門戶。
eBackup
可選部件
eBackup是虛擬化備份軟件,配合FusionCompute快照功能和CBT(Changed Block Tracking)備份功能實現FusionSphere的虛擬機數據備份方案。
UltraVR
可選部件
UltraVR是容災業務管理軟件,利用底層SAN存儲系統提供的異步遠程復制特性,提供虛擬機關鍵數據的數據保護和容災恢復。
應用場景介紹:
- 單虛擬化場景:
單虛擬化場景適用於企業只采用FusionCompute作為統一的操作維護管理平台對整個系統進行操作與維護的應用場景。包含資源監控、資源管理、系統管理等。
FusionCompute主要負責硬件資源的虛擬化,以及對虛擬資源、業務資源、用戶資源的集中管理。它采用虛擬計算、虛擬存儲、虛擬網絡等技術,完成計算資源、存儲資源、網絡資源的虛擬化。同時通過統一的接口,對這些虛擬資源進行集中調度和管理,從而降低業務的運行成本,保證系統的安全性和可靠性。
- 多虛擬化場景:
多虛擬化場景適用於企業有多套虛擬化環境需要進行統一管理。多虛擬化場景提供如下主要功能:
l 統一管理和維護:支持同時接入FusionCompute和VMware虛擬化環境,對多虛擬化環境的資源和業務進行統一的管理和維護。
l 統一監控告警:支持對多個虛擬化環境、多種物理設備的告警進行統一接入、監控和管理。
- 私有雲場景:(考試不提這個,可以不看)
私有雲場景適用於企業各部門需要各自管理虛擬資源及業務。發放業務時由管理員和租戶分別完成不同的任務,共同完成業務的發放。管理資源時,管理員可以對系統所有資源進行管理;租戶只能管理所屬VDC的資源。
根據實際使用需求的不同,私有雲場景又可分為多租戶共享VPC場景和多租戶私有VPC場景。
l 多租戶共享VPC場景
該場景中,發放業務時管理員通過VDC將虛擬資源分給租戶。租戶在租戶視圖,創建虛擬機或應用實例時可使用管理員在共享VPC中創建的網絡。若在創建VDC時,將管理員加入了VDC中,則管理員一人在不同視圖中,可完成所有任務。該場景適用於如下情況:
n 企業各部門需要各自管理除網絡之外的虛擬資源(包含虛擬機、磁盤等)及業務。
n 企業中的網絡由管理員統一規划和維護,企業各部門均使用管理員創建的網絡。
l 多租戶私有VPC場景
該場景中,發放業務時管理員通過VDC將虛擬資源分給租戶。租戶在租戶視圖,自行創建VPC、網絡、虛擬機或應用實例。當同時有共享網絡需求時,可以由管理員創建共享VPC供所有租戶使用。若在創建VDC時,將管理員加入了VDC中,則管理員一人在不同視圖中,可完成所有任務。該場景適用於如下情況:
n 企業各部門需要各自管理虛擬資源(包含網絡、虛擬機、磁盤等)及業務。
n 企業各部門的網絡相互隔離,各自規划、創建和維護。
FusionCompute各模塊功能:
CNA主要提供以下功能:
- CAN:提供虛擬計算功能。
- 管理計算節點上的虛擬機。
- 管理計算節點上的計算、存儲、網絡資源。
VRM主要提供以下功能:
- 管理集群內的塊存儲資源。
- 管理集群內的網絡資源(IP/VLAN/DHCP),為虛擬機分配IP地址。
- 管理集群內虛擬機的生命周期以及虛擬機在計算節點上的分布和遷移。
- 管理集群內資源的動態調整。
- 通過對虛擬資源、用戶數據的統一管理,對外提供彈性計算、存儲、IP等服務。
- 通過提供統一的操作維護管理接口,操作維護人員通過WebUI遠程訪問FusionCompute對整個系統進行操作維護,包含資源管理、資源監控、資源報表等。
華為FusionSphere是業界領先的服務器虛擬化解決方案,能夠幫助客戶帶來如下的價值,從而大幅提升數據中心基礎設施的效率。
- 幫助客戶提升數據中心基礎設施的資源利用率。
- 幫助客戶成倍縮短業務上線周期。
- 幫助客戶成倍降低數據中心能耗。
- 利用虛擬化基礎設施的高可用和強恢復能力,實現業務快速自動化故障恢復,降低數據中心成本和增加系統應用的正常運行時間。
6.5.1的FC(新版本)
FusionCompute:
必選部件
FusionCompute是雲操作系統軟件,主要負責硬件資源的虛擬化,以及對虛擬資源、業務資源、用戶資源的集中管理。它采用虛擬計算、虛擬存儲、虛擬網絡等技術,完成計算資源、存儲資源、網絡資源的虛擬化。同時通過統一的接口,對這些虛擬資源進行集中調度和管理,從而降低業務的運行成本,保證系統的安全性和可靠性,協助運營商和企業構築安全、綠色、節能的雲數據中心能力。
eBackup:
可選部件
eBackup是虛擬化備份軟件,配合FusionCompute快照功能和CBT(Changed Block Tracking)備份功能實現FusionSphere的虛擬機數據備份方案。
UltraVR:
可選部件
UltraVR是容災業務管理軟件,利用底層SAN存儲系統提供的異步遠程復制特性,提供虛擬機關鍵數據的數據保護和容災恢復。
-------------------------------------------------------------------------------
引申:
VRM故障,會影響業務虛擬機嗎?還能創建虛擬機嗎?
不會影響虛擬機。VRM故障,我們還可以通過CAN底層用命令行創建虛擬機。
FM可以接入多套FC嗎?
可以
單虛擬化場景是否需要用到FM?
不用
FM可以對接ManagerOne嗎?
可以
CAN和VRM通過什么協議通信?
通過REST協議
哪些組件非必選?哪些組件必選?
非必選FM、eBackup、UltraVR
必選FC
CAN和VRM全稱怎么讀?
CNA(Computing Node Agent,計算節點代理)
VRM(Virtual Resource Manager,虛擬資源管理器)
CAN有什么組件?
UVP(Unified Virtualization Platform):統一虛擬化平台
VNA(Virtualization Node Agent):虛擬節點代理
FM可不可以創建虛擬機給用戶使用?
可以
FC(VRM)和FM有什么區別?
兼容性:FC只能對接自己的虛擬化平台,FM除了可以對接FC,還可以對接VMware
管理上:FC只能管理虛擬化資源,無法管理硬件資源,FM除了管理虛擬化資源,還可以管理物理硬件(如物理交換機、防火牆、服務器,存儲設備,路由器)
服務自動化:FC需手動發放業務,FM可以自動化發放(慎答)
裝FusionCompute是先裝CAN還是VRM?
先裝CAN,再裝VRM,CAN可以ISO物理部署,也可以使用工具PXE安裝,VRM可以物理ISO部署,也可以使用壓縮包使用工具以虛擬機部署,且VRM可以單節點部署或者主備部署。
PS:具體可以參考FusionSphere文檔。
13.【一般】內存分片+迭代遷移?
一開始對數據定格,新數據寫入帶新空間,把原來定格的數據傳送到對端,在傳送對端的過程中新產生的數據再進行定格,再一次發送,發送后又產生新數據,不斷迭代,最后當新產生的數據量極少時,此時暫停源虛擬機,在一個極短的瞬間內,把剩下的數據發送給對端。
14.【一般】存儲池
存儲資源:
存儲資源表示物理存儲設備,例如IPSAN、FCSAN、FusionStorage、NAS等:
存儲設備:
表示存儲資源中的管理單元,存儲設備有LUN、NAS共享目錄、本地硬盤、FusionStorage存儲池,一個存儲資源可以有多個存儲設備。
數據存儲:
數據存儲表示系統中可管理、操作的存儲邏輯單元,一個數據存儲和一個存儲設備對應。
數據存儲承載了具體的虛擬機業務,例如創建磁盤等。
數據存儲和主機關聯,為主機提供資源,數據存儲可以關聯到多個主機,一個主機也可以使用多個數據存儲
存儲資源:存儲設備===1:N 存儲設備:數據存儲=====1:1
16.【重點】虛擬機熱遷移?
前言:
考試答熱遷移默認答更改主機的熱遷移,存儲熱遷移和完整遷移不主動提,考官追問再答。
概念:虛擬機熱遷移是指在不中斷業務的情況下,將虛擬機從一台物理服務器移動至另一台物理服務器。
熱遷移實現
1.更改主機:
針對內存:內存分片+迭代遷移
針對存儲:共享存儲,無需進行數據復制
2.更改數據存儲
針對存儲:MirrorIO+迭代遷移
3.更改主機和數據存儲
針對內存:內存分片+迭代遷移
針對存儲:MirrorIO+迭代遷移
熱遷移需要用到快照技術嗎?
不需要
虛擬機熱遷移分為兩種:
1.更改主機 2.更改主機和數據存儲(完整遷移)
更改主機實現:
虛擬機管理器提供內存數據快速復制(內存分片+迭代遷移)和共享存儲技術,確保虛擬機遷移前后數據不變。
更改主機
1)將虛擬機配置信息和設備信息傳送到目標主機上
2)傳送虛擬機內存(迭代遷移)
將虛擬機遷移時的初始內存及內存變更分片同步到目標主機上
3)暫停源虛擬機並傳送狀態
在原主機上暫停虛擬機
將最后的變更內存傳到目標主機
4)恢復目標虛擬機
1、在目標主機上恢復虛擬機,並在原主機上停止虛擬機
2、在源主機上先停止虛擬機,然后在目標主機上拉起虛擬機
PS:這里第四步有考官認可1說法,有考官認可2說法,考試建議以1說法為准。
熱遷移條件:(更改主機)
虛擬機側:
1、已登錄FusionCompute。
2、虛擬機的狀態為“運行中”。
3、虛擬機已安裝Tools,且Tools運行正常。(目前新版本不需要Tools,可不提)
4、虛擬機未綁定圖形處理器、USB設備。
5、已獲取遷移的目標主機名稱。
6、虛擬機未與主機綁定
主機側:
1、如果源主機和目標主機的CPU類型不一致,需要開啟集群的IMC模式。
2、當跨集群遷移時,源主機所屬集群和目標主機所屬集群的內存復用開關設置需相同。
3、目標主機上有足夠的CPU和內存資源
4、遷移過程中,不能將源主機和目標主機下電或重啟
5、一台主機最多並發遷移8個虛擬機
6、目標主機不能是維護模式
網絡:
虛擬機從一台主機遷移到另一台主機,只需要兩主機能夠三層互通即可,默認情況下,遷移流量走管理網絡,如果配置了“虛擬機熱遷移流量”接口,那么走業務管理接口,只要3層互通即可。在FusionCompute場景中,因保障虛擬機遷移后,仍能正常對外提供業務,所以FusionCompute強制要求目的主機關聯虛擬機所在DVS,即DVS上行鏈路中有目的主機的端口。為了保障虛擬機能正常對外提供業務,作為實施人員,需確保虛擬機遷移后,其仍能位於原二層網絡中,即需確保上行鏈路放行遷移VM所在VLAN或采用Vxlan等大二層技術。
存儲:
數據存儲為虛擬化的共享存儲(不一定要虛擬化數據存儲,像FusionStorage就是非虛擬化數據存儲)
虛擬機熱遷移的應用場景:
計划性停機:在進行服務器操作維護或者升級之前,系統維護人員將該服務器上的虛擬機遷移到其他服務器,完成操作之后再將虛擬機遷回,可降低操作維護或者升級過程中業務中斷的風險。
綠色節能:將空閑服務器上的虛擬機遷移到其他服務器,將沒有負載的服務器關閉,降低業務運行成本。(DPM)
負載均衡:將負載較重的服務器上的虛擬機遷移到其他服務器,提高服務器的資源利用率。(DRS)
熱遷移失敗有哪些原因:
①源主機和目標主機網絡中斷或網絡不通;
②目標主機無法訪問虛擬機的磁盤;
③在遷移過程中源目標主機故障、被重啟或已進入維護模式;
④源主機和目標主機的CPU類型不兼容;
⑤目標主機資源不足;
⑥設置了遷移超時時間,遷移時長超過了遷移超時時間。(設置遷移超時時間:創建遷移任務的地方可以勾選)
遷移超時有兩種可能:1、虛擬機業務繁忙,這種情況下我們可以選擇在業務不繁忙的時間段進行遷移;2、遷移流量默認使用的是管理網絡,可能由於網絡時延的問題導致遷移超時,這種情況下我們可以單獨給虛擬機遷移規划一個網絡來解決。
引申:
虛擬機熱遷移時,傳遞的配置信息和設備信息具體是什么?保存在哪?
配置信息與設備信息可以統稱為虛擬機的描述信息,其中配置信息是指虛擬機的操作系統、引導方式、引導次序等。虛擬機設備信息是指虛擬機的CPU個數、內存大小、硬盤及網卡信息等。
這些信息保存在VRM的數據庫中、CNA上libvirt內存中、還會以文件的方式保存在VM系統盤所在的虛擬化數據存儲上。在更改主機的熱遷移時,只變更CNA上的libvirt內存,由源CNA上的libvirt傳遞給目的CNA上的libvirt。
熱遷移中什么時候在對端創建虛擬機?
熱遷移中,當虛擬機的設備信息和配置信息發送給對端后,才開始創建虛擬機。
熱遷移默認走什么網絡?
在未配置“虛擬機熱遷移流量”業務管理接口的情況下,虛擬機熱遷移默認經過CNA的管理網絡平面,且管理網絡需要互通。配置后,則通過“虛擬機熱遷移流量”業務管理接口承載,同樣的業務管理接口也需要互通。
綁定硬件設備為什么不能遷移?
遷移后對端沒有設備
綁定了硬件設備就一定不能遷移了嗎?
不是,解綁后就可以遷移了
熱遷移是否會中斷業務?
熱遷移會中斷業務,但是只會丟1-2個數據包,一般是1個,整個過程對用戶是無感知的。
中斷多長時間?
最后一次數據同步+業務切換時長
冷遷移時什么?熱遷移和冷遷移的區別是什么?
冷遷移是將虛擬機關機進行遷移。熱遷移和冷遷移最大的區別是開機遷移和關機遷移。
虛擬機遷移過程中,主機掉電,會如何?
最直接的結果是遷移失敗,但是源VM仍然在源主機上運行,而目標主機刪除VM遷移的數據
IMC在哪里開啟?
集群,且同集群不用開啟,跨集群才要開啟。
IMC模式,一端高版本,一端低版本,怎么遷?
只能從高的往低的遷。
跨集群熱遷移能不能遷移?跨數據中心能不能遷移?
跨集群可以遷移,但兩個集群的內存復用開關要一致,兩個集群使用相同的DVS,相同的共享存儲。不同站點間多個集群想做熱遷移必須打通VXLAN。
兩台VM屬於不同網段我們虛擬機可以遷移么?
可以,只要網絡互通就行
為什么要內存復用開關設置一致?
若不開內存復用,物理內存與虛擬機內存的對應關系是一一對應的,若開啟了內存復用,物理內存與虛擬機內存的關系不再是一一對應關系。若內存復用開關不一致,會導致虛擬機遷移失敗。
為什么要登錄FusionCompute,不登錄能遷移嗎?
手動遷移需要登錄,自動遷移不需要,如DRS、DPM
跨DVS可以熱遷移嗎?
不可以
熱遷移中Tools有什么作用?
監控虛擬機的內存和CPU狀態和遷移進度。
沒有放行虛擬機所在的VLAN可以遷移嗎?
可以,但是遷移后可能不能對外提供服務
遷移后虛擬機的MAC地址會變化嗎?
為了保證業務的連續性,MAC不會變化,IP也不改變
掛載了光驅能否熱遷移?
不能,因為光驅也是IO設備。
遷移過程中暫停源端虛擬機,系統做了什么,暫停的是什么?
暫停虛擬機的IO,防止內存出現變更。傳遞最后的內存變更信息終端的是VM的內存變更和磁盤的IO。
熱遷移具體遷移了什么數據?
內存里的數據。
故障條件下能否進行熱遷移?
不能。
熱遷移失敗,你在現場,怎么快速排查。(用工具PING/ARP-P/tracert)
1、使用ping命令后,查看arp表項。如果有,則說明兩台VM在同一二層,可能是防火牆攔截、IP地址配置錯誤等。若沒有arp表項,則可能不在同一二層。
2、不在同一二層。Tracert/tracerout目的端。若源網關能到,說明源二層沒問題,目的二層有問題。若源網關不可達,說明源端二層存在問題,目的二層可能也存在問題。
17.【重點】存儲熱遷移?
定義:虛擬機正常運行時,管理員可通過手動操作,將虛擬機的磁盤遷移至其他存儲單元。存儲熱遷移可在存儲虛擬化管理下的同一個存儲設備內、不同存儲設備之間進行遷移。熱遷移使客戶在業務無損的情況下動態調整虛擬機存儲資源,以實現設備維護等操作。
存儲熱遷移:將“運行中”的虛擬機的虛擬磁盤從一個數據存儲遷移到另一個數據存儲上,遷移過程中“業務不中斷”(用戶無感知)。
遷移過程:
- 通過源磁盤文件在目標數據存儲創建一個空的磁盤文件;
- 在目的磁盤文件設置為源磁盤文件的mirror,業務I/O雙寫至源目的磁盤文件,保證臟數據的實時同步
- 通過迭代技術,將源磁盤文件的基線數據遷移至目的磁盤文件
- 當基線數據遷移完成,短暫的時間內暫停虛擬機的IO請求,將虛擬機的存儲文件從源鏡像切換到目的鏡像上,這樣就完成了存儲的遷移
存儲熱遷移同時遷移虛擬機磁盤和鏡像和系統內存狀態。
存儲熱遷移應用場景:
- 將數據存儲的所有卷遷移后,可以對數據存儲進行減容
- 可以調整數據存儲之間的負荷
- 存儲的升級和維護
存儲熱遷移約束:
- 不支持遷移已掛載的“共享”類型的磁盤和鏈接克隆虛擬機的磁盤
- 不支持非持久化磁盤
- 不支持跨FusionStorage遷移(但是支持在同一個FusionStorage Block存儲資源的不同數據存儲之間進行遷移)
為什么鏈接克隆虛擬機磁盤不能遷移?
因為無法對母卷進行遷移
新版版IP膠片存儲熱遷移:
- 熱遷移首先使用寫時重定向,將虛擬機數據寫入目的存儲的一個差異磁盤,這樣,原磁盤文件就變成只讀的。
- 將源卷的所有的數據塊依次讀取出來並合並到目標端的差異磁盤中,等數據合並完成后,目的端的差分磁盤就擁有虛擬磁盤的所有最新數據。
- 去除目的端快照對源卷的依賴,將差分磁盤修改為動態磁盤,這樣,目的端磁盤文件可以獨立運行。
18.【一般】虛擬磁盤的類型有哪些?配置模式有哪些?磁盤模式有哪些?
類型:
l 普通:普通磁盤只能單個虛擬機使用。
l 共享:共享磁盤可以綁定給多個虛擬機使用
普通類型:根據磁盤容量為磁盤分配空間,在創建過程中會將物理設備上保留的數據置零。這種格式的磁盤性能要優於其他兩種磁盤格式,但創建這種格式的磁盤所需的時間可能會比創建其他類型的磁盤長。建議系統盤使用該模式。
共享類型:多台虛擬機使用同一個共享磁盤時,如果同時寫入數據,有可能會導致數據丟失。若使用共享磁盤,需要應用軟件保證對磁盤的訪問控制。
配置模式:
l 普通:根據磁盤容量為磁盤分配空間,在創建過程中會將物理設備上保留的數據置零。這種格式的磁盤性能要優於其他兩種磁盤格式,但創建這種格式的磁盤所需的時間可能會比創建其他類型的磁盤長。
建議系統盤使用該模式。
l 精簡:該模式下,系統首次僅分配磁盤容量配置值的部分容量,后續根據使用情況,逐步進行分配,直到分配總量達到磁盤容量配置值為止。
說明:
使用精簡模式可能導致數據存儲超分配,建議超分配比例不超過50%。超分配率可通過數據存儲的詳細信息頁簽“已分配容量”和“總容量”的比率關系來確定。
l 普通延遲置零:根據磁盤容量為磁盤分配空間,創建時不會擦除物理設備上保留的任何數據,但后續從虛擬機首次執行寫操作時會按需要將其置零。創建速度比“普通”模式快;IO性能介於“普通”和“精簡”兩種模式之間。
只有數據存儲類型為“虛擬化本地硬盤”或“虛擬化SAN存儲”時,支持該模式。
引申:
這3種分別對應VMware中的厚置備置零(普通)、【Thin Provision(精簡置備)】(精簡)、厚置備延遲置零(普通延遲置零)。
磁盤模式:
l 從屬:快照中包含該從屬磁盤,更改將立即並永久寫入磁盤。
l 獨立-持久:更改將立即並永久寫入磁盤,持久磁盤不受快照影響。
即對虛擬機創建快照時,不對該磁盤的數據進行快照。使用快照還原虛擬機時,不對該磁盤的數據進行還原。
l 獨立-非持久:關閉電源或恢復快照后,丟棄對該磁盤的更改。(恢復快照會重啟,所以會也是會丟棄對磁盤的更改)
若選擇“獨立-持久”或“獨立-非持久”,則對虛擬機創建快照時,不對該磁盤的數據進行快照。使用快照還原虛擬機時,不對該磁盤的數據進行還原。
如果快照后,該磁盤被解綁定且未綁定其他虛擬機,則快照恢復的虛擬機會重新綁定該磁盤,但磁盤數據不進行還原。
如果快照后,該磁盤被刪除,則快照恢復的虛擬機上不存在該磁盤。
限制條件:
當數據存儲類型為“虛擬化本地硬盤”、“虛擬化SAN存儲”、“NAS存儲”或“FusionStorage Block”,且磁盤類型為“共享”時,該磁盤不支持創建快照,默認“獨立-持久”。
當磁盤類型為“普通”且數據存儲類型為“虛擬化本地硬盤”、“虛擬化SAN存儲”、“FusionStorage Block”或“NAS存儲”時,磁盤才可以創建為“獨立-非持久”模式。
不同類型數據存儲支持的模式:
引申:
置零是為什么?
是為了防止數據殘留。
精簡存儲有什么好處和壞處?
好處:可以任意給虛擬機分配磁盤空間,對用戶來說是不知道到磁盤空間按需分配的,可以在資源緊張的情況下滿足客戶的容量需求。
壞處:如果物理存儲在一定量的情況下,虛擬機磁盤的容量分配過多,可能會導致客戶看到容量足夠但無法寫入的情況,因為此時物理容量可能不夠了。
19. 數據存儲是虛擬化或非虛擬化的本質差別。
當數據存儲的虛擬化特性是由主機側去實現時,其根本就是將存儲設備格式化為文件系統。本地存儲格式成ext4,共享存儲格式成vims。
非虛擬數據存儲,就是一個塊設備。
20. VRM虛擬機可以不可遷移?為什么?
通過部署工具導入的VRM,被自動配置成“與主機綁定”,故不可以遷移。
21. FusionCompute計算資源調度策略、DRS、DPM的優先級
DPM>調度策略>DRS
調度策略:
l 聚集虛擬機:列出的虛擬機必須在同一主機上運行,一個虛擬機只能被加入一條聚集虛擬機規則中。
l 互斥虛擬機:列出的虛擬機必須在不同主機上運行,一個虛擬機只能被加入一條互斥虛擬機規則中。
l 虛擬機到主機:關聯一個虛擬機組和主機組並設置關聯規則,指定所選的虛擬機組的成員是否能夠在特定主機組的成員上運行。
引申:
第一優先級:規則類型為“虛擬機到主機”,規則是“必須在主機組上運行”和“禁止在主機組上運行”的。
第二優先級:規則類型為“聚集虛擬機”和“互斥虛擬機”的。
第三優先級:規則類型為“虛擬機到主機”,規則是“應該在主機組上運行”和“不應該在主機組上運行”的。
22. 什么是KVM?
KVM全稱Kernel-based Virtual Machine,中文名稱基於內核的虛擬機,是一種用於Linux內核中的虛擬化基礎設施,可以將Linux內核轉化為一個虛擬機監視器(Hypervisor)。KVM是開源軟件,其還需要一個經過修改的QEMU軟件(qemu-kvm),作為虛擬機上層控制和界面,且需要硬件支持虛擬化技術(如Intel VT或AMD-V)。
23.【一般】Tools:
Tools是虛擬機的驅動程序。
可以提高虛擬機的I/O處理性能、實現對虛擬機的監控和其他高級功能。
- 為虛擬機提供高性能的磁盤I/O和網絡I/O功能
- 為虛擬機提供虛擬硬件監控功能
- 獲取虛擬機指定網卡IP信息
- 獲取虛擬機內部各CPU利用率、內存利用率
- 獲取虛擬機內各個磁盤/分區的空間使用信息
安裝Tools后,可提高虛擬機的性能,實現對虛擬機的硬件監控和虛擬機的高級功能,
如遷移虛擬機、對虛擬機創建快照、在線調整虛擬機的CPU規格、創建虛擬機快照、虛擬機藍屏檢測、虛擬機與主機時鍾同步、虛擬機網卡的高級功能,如QoS、流量整形、ARP廣播抑制、DHCP隔離、IP與MAC綁定。還有自動升級虛擬機的驅動程序,如Tools和智能網卡驅動。
24.【一般】什么是安全組?如何實現?
安全組為虛擬防火牆規則提供容器,用於控制端口級別的入站和出站的網絡流量。安全組默認拒絕,以及只允許規則定義的特定流量。通常,安全機是基於宿主機的iptables實現的,因此相對防火牆而言更加靈活,可以限制同網段內的流量。安全組的成員為虛擬機的端口。
25.【重點】什么是DVS?
DVS全稱分布式虛擬交換機,是由VRM維持並跨越多台CNA的邏輯交換機。用戶在VRM上的操作,VRM會利用軟件功能,在CNA上划分出很多虛擬的交換機。這個虛擬交換機能實現單個物理服務器內的VM之間的交換,也能實現不同物理服務器之間VM之間的交換。DVS最主要的作用是整合位於同一物理平面的不同CNA上的虛擬交換機,達到簡化網絡、易管理的目的。
引申:
什么是物理網絡?
物理網絡指的是物理的二層網絡,指在沒有vlan等二層虛擬化網絡技術的情況下,對應一個二層廣播域。
什么是上行鏈路?
DVS上虛擬端口到CNA主機物理網卡的鏈路,DVS通過上行鏈路關聯CNA主機,通過上行鏈路可以將CNA內的虛擬機流量轉發到物理網絡中。
上行鏈路可以直接使用CNA主機上的物理網口或由物理網口形成的綁定網口。
一個DVS不能綁定多個物理網口或者多個綁定網口(單主機情況是這樣,多主機的話,一個DVS可以有多個物理網口或者多個綁定網口,也就是每台主機提供一個物理網口或者綁定網口)。
同一個網口不能同時被多個DVS使用。
注意:如果一個DVS綁定多個網口,那么回包時就不知道從哪一個網口回去了
如果我一個物理主機只有一張網卡,我要做兩個DVS,要怎么做?
一個網口只能關聯一個DVS
什么是OVS/EVS?
OVS是一款使用開源軟件實現的虛擬交換機,支持多種標准接口和協議,支持多個物理服務器的分布式環境,提供了對openflow協議的支持,並且能夠與眾多開源的虛擬化平台整合。
EVS是華為基於OVS開發的技術,通過Intel DPDK技術,提升了IO性能,仍然遵從openflow協議,通過用戶態進程接管網卡數據,采用每個端口分配一個核專門用於數據收發,這種輪詢的方式比中斷式的處理更高效,因而IO性能有顯著提升。
OVS和EVS在FC中對用戶體現的都是DVS。
什么是端口組?
連接在同一端口組的虛擬機網卡,具有相同的網絡屬性(如:VLAN、QoS、安全屬性等),以提供增強的網絡安全、網絡分段、更佳的性能、高可用性以及流量管理。
引申:端口組和VLAN的比列關系?
一個DVS下,端口組和VLAN可以是1:1,也可以是1:m(端口組類型設置為中繼即可實現),也可以是m:1(可以創建名字不同的端口組,但是VLAN可以設置一致)。由此可知端口組和VLAN的比列是M:N。
不同的DVS,可以創建完全相同的端口組,包括名稱、VLAN號。
虛擬機的網關一般在哪里配置?
一般在核心交換機或者路由器上配置。
FC上對CNA的網口聚合有什么方式?
對於普通網卡,綁定模式可以選擇以下幾種:
主備:綁定的對象為兩個網口時,如需提高可靠性,建議將綁定的網口配置為主備關系。主備模式速率等同於單個網口的速率。
基於輪詢的負荷分擔:綁定的對象為兩個或兩個以上的網口時,通過對綁定的網口依次輪詢來分擔數據流,使綁定后的帶寬高於單個網口的帶寬,是一種簡單的負荷分擔方式。(該模式使網絡流量完全均勻地發送給各個網口,但可能產生大量報文亂序。因此,建議綁定為負荷分擔模式時,優先選擇基於源和目的MAC的負荷分擔。)
基於源目的IP和端口負荷分擔:綁定的對象為兩個或兩個以上的網口時,通過源目的IP和端口負荷分擔算法使綁定后的帶寬高於單個網口的帶寬。(源和目的端口的負荷分擔算法:當報文中有IP和端口時,使用源目的IP、端口和MAC進行負荷分擔;當報文僅有IP地址時,使用IP地址和MAC進行負荷分擔;當報文僅有MAC地址時,使用MAC地址進行負荷分擔。該模式一般用於部署VXLAN的場景,此時網絡流量可基於報文中的源端、目的端端口均勻散列。)
基於源目的MAC的負荷分擔:綁定的對象為兩個或兩個以上的網口時,通過源端和目的端網口MAC地址對應關系分擔數據流,使綁定后的帶寬高於單個網口的帶寬。(該模式一般用於網絡流量大部分在二層網絡內部的場景,此時網絡流量可通過MAC均勻散列。)
基於源目的MAC的LACP:在“基於源和目的MAC的負荷分擔”的基礎上,使用LACP協議,使綁定后的端口具備檢測鏈路層故障、自動切換故障鏈路的功能。
基於源目的IP的LACP:綁定的對象為兩個或兩個以上的網口時,通過源和目的IP負荷分擔算法(當報文有IP地址時,使用IP地址和MAC進行負荷分擔;當報文僅有MAC地址時,使用MAC地址進行負荷分擔)使綁定后的帶寬高於單個網口的帶寬。同時使用LACP協議,使綁定后的端口具備檢測鏈路層故障、自動切換故障鏈路的功能。(該模式一般用於大部分網絡流量跨三層網絡的場景。)
注意:
(1)在所有負荷分擔模式下,需要在網口連接的交換機上做端口匯聚配置,即將主機待綁定的網口在對端交換機上的端口配置到同一個Eth-trunk,否則會導致網絡通信異常。
(2)在LACP模式下,需要在網口連接的交換機上創建LACP模式的Eth-trunk,並在該Eth-trunk上開啟BPDU協議報文轉發功能。
對於支持DPDK驅動的物理網卡,綁定模式可以選擇以下幾種:
- DPDK驅動的主備模式:是專用於用戶態驅動模式下的網口的綁定類型,與普通網卡的主備模式原理和適用場景相同,但能夠提供更高性能的網絡報文處理能力。
- DPDK驅動的基於源目的MAC的LACP模式:是專用於用戶態驅動模式下的網口的綁定類型,與普通網卡的基於源目的MAC的LACP模式原理和適用場景相同,但能夠提供更高性能的網絡報文處理能力。
- DPDK驅動的基於源目的IP和端口的LACP模式:是專用於用戶態驅動模式下的網口的綁定類型,與普通網卡的基於源目的IP和端口負荷分擔的原理和適用場景相同,但能夠提供更高性能的網絡報文處理能力。