云计算HCIE面试题


一:服务器虚拟化

1.【重点】名词解释

(1)资源动态调整(对象是虚拟机)

管理员操作,对CPU、内存、网卡、硬盘、GPU进行调整。

FusionCompute支持虚拟机资源动态调整,用户可以根据业务负载动态调整资源的使用情况。

虚拟机资源调整包括:

离线/在线调整vCPU数目

无论虚拟机处于离线(关机)或在线状态,用户都可以根据需要增加虚拟机的vCPU数目。虚拟机处于离线状态时,用户可以根据需要减少虚拟机的vCPU数目。通过离线/在线调整虚拟机vCPU数目,可以满足虚拟机上业务负载发生变化时对计算能力灵活调整的需求。

离线/在线调整内存大小

无论虚拟机处于离线或在线状态,用户都可以根据需要增加虚拟机的内存容量。虚拟机处于离线状态时,用户可以根据需要减少虚拟机的内存容量。通过离线/在线调整内存大小,可以满足虚拟机上业务负载发生变化时对内存灵活调整的需求。

离线/在线添加/删除网卡

虚拟机在线/离线状态下,用户可以挂载或卸载虚拟网卡,以满足业务对网卡数量的需求。

离线/在线挂载虚拟磁盘

无论虚拟机处于离线或在线状态,用户都可以挂载虚拟磁盘,在不中断用户业务的情况下,增加虚拟机的存储容量,实现存储资源的灵活使用。

 

引申:

在线增加CPU和内存可以在线生效,不需要重启,但前提是需要开启虚拟机的热添加开关才行,CPU和内存都有热添加,且对操作系统的版本也有一定的限制,不是所有的操作系统都支持在线增加CPU和内存。但是网卡和磁盘可以在线和离线添加或者删除。

 

(2)动态资源调度DRS(对象是集群)

DRS,即动态资源调度(Dynamic Resource Scheduler):指采用智能负载均衡调度算法,并结合动态电源管理功能(DPM),通过周期性检查同一集群资源内各个主机的负载情况,在不同的主机间迁移虚拟机,从而实现同一集群内不同主机间的负载均衡,并最大程度降低系统的功耗。

 

在FusionCompute中,可以配置集群动态资源调度功能:采用智能负载均衡调度算法,周期性检查集群内主机的负载情况,在不同的主机之间迁移虚拟机,从而达到集群内的主机之间负载均衡目的。

集群的自动化级别有两种:自动和手动在自动调度模式下,系统会自动将虚拟机迁移到最合适的主机上。在手动操作模式下,系统会生成操作建议供管理员选择,管理员根据实际情况决定是否应用建议。

资源调度可以配置不同的衡量因素,可以根据CPU、内存或CPU和内存进行调度。只有资源复用时,才会影响虚拟机性能。因此,如果未使用内存资源复用,建议配置为根据CPU调度。如果使用内存复用,建议配置为根据CPU和内存综合调度。

 

资源调度的高级规则可以用来满足一些特殊需求。例如两台虚拟机是主备关系时,可以为其配置互斥策略,使其运行在不同的主机上以提高可靠性。

资源调度的分时阈值设置,可以满足不同时段的调度需求。由于虚拟机迁移会带来一定的系统开销,所以建议在业务压力较大时设置为保守策略,在业务压力较小时设置为中等或激进策略避免影响业务性能。

 

FusionCompute的计算集群,配合基于VIMS文件系统的共享存储;DRS算法实时监控集群中每个计算节点的资源使用情况,引用VMOTION功能,智能迁移负荷高节点上虚拟机到资源充足的节点上;均衡各节点资源使用并保障业务有充足资源可用。因此,DRS是实现自动负载均衡的基础

 

操作对象:1、内存  2、CPU  3、CPU+内存  第3点的关系是“且”的关系。达到负载高度时,只要一个达到就触发。

 

引申:

虚拟机存在以下绑定关系时,动态资源调度对该虚拟机失效。

l  绑定主机

l  绑定USB设备

l  绑定直通设备

l  绑定GPU资源组(X86)

 

DRS需要共享的存储

 

(3)动态资源管控QOS

即服务质量(quality of service),服务质量,为了在资源紧张的情况下,保障关键业务的体验度。Qos包括CPUQos、内存QOS、磁盘Qos、网卡Qos。

-------------------------------------

  • CPU资源份额

CPU份额定义多个虚拟机在竞争物理CPU资源的时候按比例分配计算资源。

以一个主频为2.8GHz的单核物理主机为例,如果上面运行有三台单CPU的虚拟机。三个虚拟机A,B,C,份额分别为1000,2000,4000。当三个虚拟机CPU满负载运行时,会根据三个虚拟机的份额按比例分配计算资源。份额为1000的虚拟机A的计算能力约为400MHz的,份额为2000的虚拟机B获得的计算能力约为800MHz,份额为4000的虚拟机C获得的计算能力约为1600MHz。(以上举例仅为说明CPU份额的概念,实际应用过程中情况会更复杂)。

CPU份额只在各虚拟机竞争计算资源时发挥作用,如果没有竞争情况发生,有需求的虚拟机可以独占物理CPU资源,例如,如果虚拟机B和C均处于空闲状态,虚拟机A可以获得整个物理核即2.8GHz的计算能力。

  • CPU资源预留:当份额>预留,优先选择份额;当份额<预留,优先选择预留;谁更大选择谁;

CPU预留定义了多个虚拟机竞争物理CPU资源的时候分配的最低计算资源。

如果虚拟机根据份额值计算出来的计算能力小于虚拟机预留值,调度算法会优先按照虚拟机预留值的能力把计算资源分配给虚拟机,对于预留值超出按份额分配的计算资源的部分,调度算法会从主机上其他虚拟机的CPU上按各自的份额比例扣除,因此虚拟机的计算能力会以预留值为准。

如果虚拟机根据份额值计算出来的计算能力大于虚拟机预留值,那么虚拟机的计算能力会以份额值计算为准。

以一个主频为2.8GHz的单核物理机为例,如果运行有三台单CPU的虚拟机A、B、C,份额分别为1000、2000、4000,预留值分别为700MHz、0MHz、0MHz。当三个虚拟机满CPU负载运行时:

  • 虚拟机A如果按照份额分配,本应得400MHz,但由于其预留值大于400MHz,因此最终计算能力按照预留值700MHz算。
  • 多出的(700-400)MHz按照B和C各自的份额比例从B和C处扣除。
  • 虚拟机B获得的计算能力约为(800-100)MHz,虚拟机C获得的计算能力约为(1600-200)MHz。

CPU预留只在各虚拟机竞争计算资源的时候才发挥作用,如果没有竞争情况发生,有需求的虚拟机可以独占物理CPU资源。例如,如果虚拟机B和C均处于空闲状态,虚拟机A可以获得整个物理核即2.8GHz的计算能力。

  • CPU资源限额

控制虚拟机占用物理CPU资源的上限。以一个两CPU的虚拟机为例,如果设置该虚拟机CPU上限为3GHz,则该虚拟机的两个虚拟CPU计算能力被限制为1.5GHz。

-------------------------------------

  • 内存资源份额

内存份额定义多个虚拟机竞争内存资源的时候按比例分配内存资源。

在虚拟机申请内存资源,或主机释放空闲内存(虚拟机迁移或关闭)时,会根据虚拟机的内存份额情况按比例分配。

不同于CPU资源可实时调度,内存资源的调度是平缓的过程,内存份额策略在虚拟机运行过程中会不断进行微调,使虚拟机的内存获取量逐渐趋于比例。

以6G内存规格的主机为例,假设其上运行有三台4G内存规格的虚拟机,内存份额分别为20480、20480、40960,那么其内存分配比例为1:1:2。当三个虚拟机内部均逐步加压,策略会根据三个虚拟机的份额按比例分配调整内存资源,最终三个虚拟机获得的内存量稳定为1.5G、1.5G、3G。

内存份额只在各虚拟机竞争内存资源时发挥作用,如果没有竞争情况发生,有需求的虚拟机可以最大限度地获得内存资源。例如,如果虚拟机B和C没有内存压力且未达到预留值,虚拟机A内存需求压力增大后,可以从空闲内存、虚拟机B和C中获取内存资源,直到虚拟机A达到上限或空闲内存用尽且虚拟机B和C达到预留值。以上面的例子,当份额为40960的虚拟机没有内存压力(内存资源预留为1G),那么份额为20480的两个虚拟机理论上可以各获得最大2.5G的内存。

  • 内存资源预留

内存预留定义多个虚拟机竞争内存资源的时候分配的内存下限,能够确保虚拟机在实际使用过程中一定可使用的内存资源。

预留的内存被会虚拟机独占。即,一旦内存被某个虚拟机预留,即使虚拟机实际内存使用量不超过预留量,其他虚拟机也无法抢占该虚拟机的空闲内存资源。

  • 内存资源限额

控制虚拟机占用物理内存资源的上限。在开启多个虚拟机时,虚拟机之间会相互竞争内存资源,为了使虚拟机的内存得到充分利用,尽量减少空闲内存,用户可以在创建虚拟机时设置虚拟机配置文件中的内存上限参数,使服务器分配给该虚拟机的内存大小不超过内存上限值。

注意:内存资源限额需要开启内存复用开关才有效,否则无法调整。

-------------------------------------

网络Qos策略提供带宽配置控制能力,Qos功能不支持同一主机上虚拟机之间的流量限制。包含如下方面:

l  基于端口组成员接口发送方向与接收方向的带宽控制

l  基于端口组的每个成员接口提供流量整形、带宽优先级的控制能力。

 

 

 

 

在端口组中配置,针对发送流量和接受流量流做Qos,有以下三种属性

平均带宽(某段时间内允许通过端口的平均每秒发送/接收位数)

峰值带宽(发送/接收流量突发时,每秒钟允许通过端口的最大传输位数)

突发大小(允许流量在平均带宽的基础上产生的突发流量的大小)

 

高级设置:

①DHCP隔离。

②IP与MAC绑定

③填充TCP校验和

④接受和发送流量整形(平均带宽、峰值带宽和突发大小,发送流量整形中还包括优先级)⑤广播抑制带宽(防止虚拟机发送大量的广播报文)。

-------------------------------------

磁盘Qos:

可设置虚拟机每个磁盘的IO上限,以避免某个虚拟机的磁盘IO过大,影响其他虚拟机的性能

 

 

 

 

 

存储QOS在哪设置?

点击虚拟机-磁盘-更多-设置磁盘IO上线(BPS和IOPS)

BPS:描述每秒IO大小

IOPS:每秒进行读写操作的次数

磁盘方面可以限制读写的IOPS和BPS。

 

什么是IOPS

IOPS全称:Input/Output Operations Per Second,即每秒进行读写(I/O)操作的次数。

 

(4)动态电源管理DPM

DPM,动态电源管理(Dynamic Power Management),根据业务情况,智能地将部分物理机上下电。

对应FusionCompute中的“电源管理自动化”:电源管理自动化功能会周期性地检查集群中服务器的资源使用情况,如果集群中资源利用率不足,则会将多余的主机下电节能,下电前会将虚拟机迁移至其他主机;如果集群资源过度利用,则会将离线的主机上电,以增加集群资源,减轻主机的负荷。

 

电源管理依赖于计算资源调度,因此电源管理只有在开启计算资源调度,并且迁移阈值的设置不为"保守"时生效。

当系统的集群下主机的“最大CPU占用率和最大内存占用率超过了设定值,此时会开始执行调度策略,调度方式分为手动跟自动。

 

使用场景:

(1)夜间低负载,自动迁移虚拟机,下电空闲主机。

(2)白天业务需求上升,自动上电主机,迁移虚拟机到新上电主机。

 

引申:

上电:VRM通过CNA物理节点上的BMC完成上电动作(前提需要在VRM界面对主机配置服务器的BMC地址)。

下电:VRM通过VNA对CNA节点进行安全关机动作(通过命令行)。

 

没有配置BMC可以使用DPM吗?

不可以,只能下电不能上电。

 

DPM依赖于DRS

 

CPU和内存预留有什么区别?

CPU预留不会独占CPU,内存预留会独占内存。

 

DPM前提是什么?

配置BMC、BMC的用户名密码。

 

(5)弹性IP

弹性IP(Elastic IP,以下或简称EIP),是基于云外网络(以下简称外网,云外网络可以是外网Internet也可以是企业内部局域网)上的静态IP地址,是可以通过外网直接访问的IP地址,通过NAT方式映射到被绑定的实例上。

私有云局域网(LAN)上各个实例配置的IP地址都是私有IP地址,无法访问外网。当实例上的应用需要访问外网时,可以通过绑定弹性IP的方式来实现VPC中的实例通过固定的外网地址与外网互通。

弹性IP可以与虚拟私有云(Virtual Private Cloud,以下简称VPC)子网中关联的弹性云服务器(Elastic Cloud Server,以下简称ECS)、裸金属服务器(Bare Metal Server,以下简称BMS)、虚拟IP(Virtual IP address,以下或简称VIP)、弹性负载均衡(Elastic Load Balance,以下简称ELB)等资源灵活地绑定及解绑 ,绑定了弹性IP 的实例可以直接使用这个 IP 进行外网通信,但是在实例上并不能看到这个IP地址。

 

作用:

弹性IP用于构建云资源的外网出口,可与多种业务资源灵活地绑定与解绑,满足各种业务诉求。

用户可以将弹性IP绑定到ECS或BMS上,绑定后的ECS或BMS即可连接公网。

用户可以为虚拟IP地址绑定一个弹性IP,从互联网可以访问后端绑定了同一个虚拟IP地址的多个主备部署的弹性云服务器,增强容灾性能。

用户可以为负载均衡器绑定弹性IP,可以接收来自公网的访问请求并将请求自动分发到添加的多台弹性云服务器。

共享带宽可提供多实例使用一条带宽的功能,用户根据实际业务情况,将对带宽要求不高的实例加入共享带宽。

多个弹性IP共享一条带宽,相较于独立带宽大大节省带宽使用成本。

提供Region级别的带宽复用共享能力,节省带宽使用的运营及运维成本。

共享带宽拥有超大弹性峰值,用户可根据实际情况通过调整带宽大小来调整峰值。

 

可以和哪些服务绑定?

弹性IP地址(Elastic IP address,EIP)是可以通过Internet直接访问的IP地址。弹性IP是一个静态的公共IP地址,可以与弹性云服务器、裸金属服务器、虚拟IP、弹性负载均衡等资源灵活地绑定及解绑 。将弹性IP地址和子网中关联的云服务器绑定,可以实现云服务器与Internet互通。

 

弹性IP一定公网IP吗?

不一定,他也可以是企业内部的IP,即公司内部的一个内网网段给弹性IP使用。

 

弹性IP和ECS什么比列关系?

是1:1。也可以1:M(申请一个ELB,为这个ELB绑定一个EIP,这样我们多个ECS就可以同时通过一个EIP出去了,也可以使用NAT网关实现)。

 

EIP和FIP有什么关系?

EIP=FIP

EIP是私有云中云服务的说法

FIP是OpenStack的说法

 

SNAT:

SNAT为公网地址与私网地址1:N映射,一个VPC共享一个且只有一个SNAT地址,按照subnet粒度使能。

Region Type I:采用纯软件的方式实现私有IP和外网IP的转换(SNAT)。

Region Type II:采用硬件防火墙实现私有IP和外网IP的转换(SNAT)。

 

EIP和SNAT区别?

EIP实现公网和私网1:1映射,SNAT是1:N。

EIP可以绑定给SNAT,实现子网内的所有弹性云服务器可以访问外部网络(使用SNAT两大因素:1、成本,因为公网IP价格贵。2、安全因素,防止外网直接访问ECS)。

 

Type1/2中EIP的实现流程:

Type1:

(1)在Service OM创建EIP对应的外部网络,设置标签为internet类型并创建子网。

(2)在网络设备(综合接入交换机、核心交换机和NGFW)上配置等价路由,将弹性IP流量路由到软NAT(Nat-server)节点。

(3)SC上为VDC租户分配外部网络。

(4)租户申请EIP服务。

(5)最后绑定EIP。

Type2:

(1)在AC上面创建外部网关,选择“L3共享出口”,填写规划的EIP网络名称。

(2)在Service OM上创建以AC上面创建的外部网关名称为前缀的外部网络。给外部网络打标签,网络类型选择Internet。创建子网,子网填写规划的EIP网段。

(3)SC上为VDC租户分配外部网络

(4)租户申请EIP服务。

(5)最后绑定EIP。

 

EIP实现原理?

在ECS界面上创建虚拟机的时候指定EIP,或者在VPC的EIP页面和ELB页面上配置EIP,各个UI(比如ECS UI、ELB UI)调用VPC service提供的EIP的接口下发配置。

VPC Service调用OpenStack Neutron提供的原生的floatingip接口配置EIP。

Neutron-server通过RPC通知neutron agent创建NAT规格。

 

EIP是怎么实现的?

Region Type I:采用纯软件的方式实现私有IP和外网IP的转换。

Region Type II:采用硬件防火墙实现私有IP和外网IP的转换。

 

弹性IP绑定弹性云服务器后如何由外部进行访问?

弹性IP绑定弹性云服务器后,为保证弹性云服务器的安全性,每个弹性云服务器创建成功后都会加入到一个安全组中,安全组默认外网对内访问是禁止的 ,所以需要在安全组中添加对应的入方向规则,才能从外部访问该弹性云服务器。

在安全组规则设置界面,用户可根据实际情况选择TCP、UDP、ICMP或ANY类型。

 

什么是虚拟IP?

虚拟IP地址(Virtual IP address, VIP)是私有IP地址的一种,拥有私有IP地址同样的网络接入能力,您可以通过其中任意一个IP(私有IP/虚拟IP)访问云服务器。

虚拟IP主要用在云服务器的主备切换,达到高可用性HA(High Availability)的目的。多个主备部署的云服务器可以在绑定虚拟IP地址时选择同一个虚拟IP地址。用户可以为该虚拟IP地址绑定一个弹性IP地址,从外网可以访问后端绑定了同一个虚拟IP地址的多个主备部署的云服务器,增强容灾性能。

 

(6)内存复用

内存复用是指在服务器物理内存一定的情况下,通过综合运用内存复用单项技术(内存气泡、内存共享、内存交换)对内存进行分时复用。通过内存复用,使得虚拟机内存规格总和大于服务器规格内存总和,提高服务器中虚拟机密度。

 

 

 

 

内存共享+写时复制:虚拟机之间共享同一物理内存空间(蓝色),此时虚拟机仅对内存做只读操作。当虚拟机需要对内存进行写操作时(红色),开辟另一内存空间,并修改映射(使用 KMS)(多台虚拟机共享数据内容为零的内存页(新版本叫共享数据内容相同的内存页))。

内存置换:虚拟机长时间未访问的内存内容被置换到外部存储中,并建立映射,系统需要使用这些数据时,再与预留在内存上的数据进行交换。

内存气泡:系统主动回收虚拟机暂时不用的物理内存,分配给需要复用内存的虚拟机。内存的回收和分配均为系统动态执行,虚拟机上的应用无感知。整个物理服务器上的所有虚拟机使用的分配内存总量不能超过该服务器的物理内存总量。

 

作用:当出现竞争时,由内存复用策略为虚拟机实时调度内存资源,综合运用内存复用技术释放虚拟机的空闲内存,为其他虚拟机的内存需求提供条件。

 

价值(应用场景上):

通过内存复用技术,可降低运营商或企业的成本。

l  当计算节点的内存数量固定时,可以提高计算节点的虚拟机密度。

l  当计算节点的虚拟机密度固定时,可以节省计算节点的内存数量。

 

限制条件:

  1. 每个计算节点上运行的所有虚拟机的预留内存之和不能大于节点虚拟化域内存总和。
  2. 旧版6.1之前:与Guestnuma、inic网卡冲突,Guestnuma、inic网卡会独占内存。与内存复用冲突。(考试不提)
  3. 新版6.3之后:内存复用与SRIOV直通、GPU直通、NVME SSD盘直通特性互斥。直通设备的虚拟机必须内存独占,内存独占后虚拟机的内存不会被交换到交换空间。内存复用的虚拟机不能直通设备。
  4. 主机需要配置足够的交换空间才能保证内存复用功能的稳定运行。主机最大内存复用率依赖于swap空间大小配置,具体计算公式如下:

主机支持的最大内存复用率=1+(主机swap空间大小-虚拟化域物理内存大小*0.1)/虚拟化域物理内存大小。

 

内存共享+写时复制:共享的是相同的数据,别答零页数据,零页数据虽然也可以,但是不全面。

 

引申:

内存复用作用的对象是主机还是集群?

集群

 

内存共享页一定不可以写吗?

不一定,我们只是不建议写,因为写了之后,会造成数据共享,那么其他虚拟机可能会看到这台虚拟机写的数据。

 

内存复用技术在哪里开启?

在FusionCompute界面中集群开启。

 

内存复用可以复用多少?

最大支持150%复用率。

PS:

虚拟机内存复用比到120:触发告警。

虚拟机内存复用比到150:无法创建新的虚拟机。

 

内存复用比可以调么?

不能

 

内存具体是被什么管理的?

VMM(可以说虚拟化监控器或者虚拟化层)

 

内存气泡怎么将内存分配给其他虚拟机的?

是通过修改映射关系将内存分配给其他虚拟机的。

 

内存复用的3项技术可以单独使用某一个吗?

不可以,开启内存复用后,3项技术必须同时使用,不能单独使用。

 

内存复用技术开启对虚拟机性能有影响么?

内存复用技术默认不开启,开启后对虚拟机有一定影响,通过内存复用3项技术可知,虚拟机使用内存时会有一定的延迟。

1、内存共享中的写时映射动作会增加延迟。

2、内存置换中将内存中的数据置换到外部存储会影响性能。

3、内存气泡中内存的回收也是会增加延迟的。

 

关闭内存复用要注意什么?

将集群内所有运行中的虚拟机的内存预留设置:内存预留=内存规格。

 

谁监控内存不足?

Hypervisor

 

内存置换,为什么不直接从硬盘的数据返回给用户,要置换回内存,再给用户?

从硬盘直接读取数据的话相对比较慢,因为在硬盘中还要进行数据的检索会浪费时间,性能相对较低,而且对于用户读取数据的流程一般都是先读缓存,因为速度较快性能较好,这也是为什么要置换回内存的主要原因。

 

内存置换,是换到主机磁盘还是虚拟机磁盘(外部存储)?

主机本地硬盘,且是虚拟化的数据存储,使用的技术是Linux的Swap分区技术。

 

3种技术都有影响吗?

都有。内存共享因为要开辟新的写空间,导致性能下降。内存置换,因为要把数据存放在外部存储上,数据调用时需要访问外部存储。内存气泡因为要做内存的回收和重分发,会有性能影响。

 

哪种内存复用性能影响最大?

内存置换,因为其他两个都是虚拟机内部交换的,内存置换是虚拟机内部和外部存储之间交换。可以使用SSD硬盘提高交换速度。

 

实现内存超分配是用的哪一种技术?

内存气泡,其它两种技术用来配合内存气泡使用,提供更多的空闲内存。

 

内存复用开关默认开启么?

不开启

 

你觉得内存复用哪项技术最好?

个人认为是内存共享,因为内存共享会把相同的数据进行共享,这样节省了内存,写时各自也有独立的空间。

 

内存复用率依赖于swap空间大小配置,具体计算公式如下:

主机支持的最大内存复用率=1+(主机swap空间大小-虚拟化域物理内存大小*0.1)/虚拟化域物理内存大小

 

内存置换长期不使用的数据放到外部存储空间,如何去判断?

根据数据的热点访问因子,长期不用的,热点访问因子低的,LRU队尾机制。

 

(7)快照

快照是什么?

快照是(虚拟机)某一时刻下数据的一个副本或复制。(可以认为是一个备份)

或者说快照是特定数据集的一个完整可用拷贝,该数据集包含源数据在拷贝点的静态映象,快照可以是数据再现的一个副本或者复制。

 

快照技术的分类有哪些?

全拷贝、差分拷贝(写即拷贝 COW,写即重定向 ROW

 

全拷贝快照:

在快照时间点到来之前,首先要为源数据卷创建并维护一个完整的物理镜像卷:同一数据的两个副本分别保存在由源数据卷和镜像卷组成的镜像对上。如果在某一时间需要对整个镜像卷做备份,需要停止对源卷的IO读写应用,然后将镜像关系终止,拆分镜像从而获得在主机停止IO时的完整镜像,镜像卷转化为快照卷,获得一份数据快照,快照卷在完成数据备份等应用后,将与源数据卷重新同步,重新成为镜像卷。

 

COW:

COW在创建快照时,并不会发生物理的数据拷贝动作,仅是拷贝了原始数据所在的源数据块的物理位置元数据。因此,COW快照创建非常快,可以瞬间完成。在创建了快照之后,快照软件会监控跟踪原始数据的变化(即对源数据块的写操作),一旦源数据块中的原始数据被改写,则会将源数据块上的数据拷贝到新数据块中,然后将新数据写入到源数据块中覆盖原始数据。新数据块就组成了快照卷。COW有一个很明显的缺点,就是会降低源数据卷的写性能,因为每次改写新数据,实际上都进行了两次写操作。(例如新数据D’更新原始数据D。此时在D’覆盖D之前,需要先把D拷贝到快照卷中,并且更新快照数据指针表的记录使其指向新的存储地址。最后再将D’写入到D原来的位置,源数据指针表不需要更新。)

 

ROW:

ROW的实现原理与COW非常相似,区别在于ROW对原始数据卷的首次写操作,会将新数据重定向到预留的快照卷中。在创建快照之后,也就是在快照时间点之后,发生了写操作,那么新数据会直接被写入到快照卷中,然后再更新源数据指针表的记录,使其指向新数据所在的快照卷地址。

ROW与COW最大的不同就是:COW的快照卷存放的是原始数据,而ROW的快照卷存放的是新数据。ROW在传统存储场景下最大的问题是对读性能影响比较大。

 

ROW(写前重定向):写直接写快照卷,读:先读快照、再读原卷    读性能会有所影响,特别多次快照之后,读性能会有较大影响(可能会出现比较严重的数据碎片化)

COW(写前复制):写:假如原位置有数据,先将数据复制到快照卷中,再把新数据写到原卷中。写性能会有较大影响。读,直接读原卷。

全拷贝:将数据完全镜像一份,优点:快照可以不依赖原卷       缺点:十分占用空间

 

对虚拟机做快照:1、虚拟机本身的描述文件  2、虚拟磁盘

 

什么是一致性快照?什么是内存快照?

一致性快照:快照创建时会将虚拟机当前未保存的缓存数据先保存,再创建快照。

内存快照:快照创建时会保存虚拟机当前内存中的数据。

 

引申:

创建快照时,当前磁盘被置为只读,系统自动在磁盘所在数据存储中创建增量磁盘,后续对该磁盘数据的编辑将保存在增量磁盘中,即增量磁盘表示磁盘当前状况和上次执行快照时的状况之间的差异。对该磁盘再次创建快照时,原磁盘和当前增量磁盘均被置为只读,系统会在数据存储中再创建一个增量磁盘。

 

如果该虚拟机有多个快照,则在删除快照后,该快照内的数据会自动合并到该虚拟机的下一个快照中。(比如创建了3个快照,此时删除最后一个快照,那么快照3的内容会合并到快照2中)

 

应用场景:

虚拟机用户在执行一些重大、高危操作之前,例如系统补丁、升级、破坏性测试前执行快照,可以用于故障时的快速还原。

 

华为的FusionCompute默认使用的是什么快照技术?

ROW

 

什么类型的磁盘可以进行快照?

支持虚拟化数据存储的磁盘。

 

(8)HA

解释(概念):

虚拟机高可用性是当计算节点上的虚拟机出现故障时,系统自动将故障的虚拟机在正常的计算节点上重新创建,使故障虚拟机快速恢复。

当系统检测到虚拟机故障时,系统将选择正常的计算节点,将故障虚拟机在正常的计算节点上重新创建。

 

原理:

管理节点会自动查询VM状态,发现故障后会查看VM是否有HA属性,如果开启了HA属性会把故障机的规格信息发给可用的CNA并启动这台虚拟机,启动过程中会将VM之前的卷重新挂载,包括用户卷。

 

怎么触发HA?

  1. 主机发生宕机、上下电、重启的时候
  2. 虚拟机系统放生故障的时候:window蓝屏、Linux Panic
  3. CAN与VRM心跳中断30秒的时候
  4. 系统故障检测,通过在主机之间实行网络心跳检测,发现没有主机与虚拟机没有IO行为的时候触发HA(整个行为与VRM无关)

 

预留方案

HA资源预留:在整个集群内按照配置的值预留CPU与内存资源,该资源仅用于虚拟机HA功能使用。

使用故障专用切换主机:预留故障专用切换主机,平时该主机不对外提供业务。

集群允许主机故障设置:设置集群内允许指定数目的主机发生故障,系统定期检查集群内是否留有足够的资源来对这些主机上的虚拟机进行故障切换。

 

条件:

  1. 安装Tools(实验证明,没有tools也能HA)。且正常运行;
  2. 其他主机有预留HA资源,不能处于维护模式;
  3. 共享存储;
  4. VM不能绑定主机,USB设备和GPU;
  5. 集群开启HA功能。

 

整个HA过程数据会丢失吗?

1、有业务下发,会丢失,会丢失未落盘的数据。

 

热迁移和HA有什么区别?

热迁移不会中断业务(用户无感知),HA会中断业务(HA触发时,业务已中断)

热迁移是计划性迁移,HA是非计划性迁移

 

虚拟机HA之后两台虚拟机是否一样?

是一样的,但是HA过程中如果有新数据下发,则会丢失HA过程中的数据。

 

虚拟机故障处理策略

l  不处理

l  重启虚拟机

l  HA虚拟机

l  关闭虚拟机

 

(9)链接克隆

 

 

 

 

链接克隆是一种通过将链接克隆母卷链接克隆差分卷组合映射为一个链接克隆卷这个卷是VM系统盘,提供给虚拟机使用的技术。其中链接克隆母卷为只读卷,多个链接克隆虚拟机共用一份,链接克隆差分卷是读写卷,其存储是精简配置的,每个链接克隆虚拟机一份,保存了每个虚拟机差异化的数据。链接克隆技术具有创建速度快、占用存储空间小、支持模版批量更新的优点,非常适合于同质化用户、桌面高度标准化场景。

 

2. 虚拟磁盘文件的格式?

固态磁盘文件(普通)

动态磁盘文件(精简&普通延迟置零)

差分磁盘文件(快照、链接克隆)

 

1、固态磁盘文件:创建时需要将磁盘文件对应的存储块空间全部进行初始化成”0”,

创建的时候,由于需要全部空间都写0,需要消耗较长时间,创建比较慢。但在写数据的时候,可以写数据,IO性能较好

应用在系统中的普通卷。

 

2、动态磁盘文件:创建时只需写头和结束块

创建的时候,只需要在头和结束块写0,不需要消耗时间,创建比较快,但在写数据的时候,需要先置0,再写数据,相对来说,IO性能较好。当动态磁盘文件使用时间越长,性能也就越接近固态磁盘文件。

应用于精简磁盘和普通延迟置零磁盘。

 

3、差分磁盘文件:差分磁盘的结构和动态磁盘一模一样,只是文件头中会记录它的父文件路径

快照、非持久化磁盘、链接克隆等

 

3. 非持久化磁盘和持久化磁盘?

存储时非持久化,如内存盘,虚拟机关机后,磁盘恢复到原始状态

持久化数据存储指硬盘等能够持久存储数据的空间,虚拟机关机后,数据还会在

 

4. 模版文件类型?

虚拟机模板格式分为ova和ovf两种。其中ova格式的模板只有一个ova文件。ovf格式的模板由一个ovf文件和多个vhd文件组成,规则如下:

ovf文件:虚拟机的描述文件,文件名为导出模版时设置的文件名,如“template01.ovf”。

vhd文件:虚拟机的磁盘文件,每个磁盘生成一个vhd文件(虚拟机的磁盘不算,在FC中看到的一个磁盘才算一个Vhd),文件名为:“模版名称-磁盘标识.vhd”,如“template01-sdad.vhd”。

 

5.【重点】两VM不通?

 

 

 

 

虚拟机侧:

        虚拟机故障或者网卡故障。

同网段:1.虚拟机的操作系统的防火墙拦截。

2.IP地址或掩码配置有误(假如A:192.168.1.1/23  B:192.168.1.2/24  A ping B,A会认为B与自己同网段,B收到A的arp消息,通过子网掩码去匹配发现A与其不同网段,则发给网关)。

不同网段:1.网关配置错误。

中间系统

1.同一主机、同一DVS、同一二层,也就是虚拟机1和2不通:可能是虚拟机在不同的端口组,那么可能是端口组类型或者VLAN配置错误。

2.不同主机、同一DVS、同一二层,也就是虚拟机1和3不通:TOR交换机可能端口配置错误或者端口未设置为Trunk,可能未放行相应的VLAN、或者PVID配置错误。

3.同一主机、同一DVS、不同二层,也就是虚拟机1和2不通:TOR交换机可能端口配置错误或者端口未设置为Trunk,可能未放行相应的VLAN、或者PVID配置错误(VM和TOR交换机pvid一定要不一致)、ACL策略拦截、网关配置错误、网关无法路由或者被路由器拦截。

4.不同主机、不同DVS,也就是虚拟机1和4不通:由于不同DVS分别属于不同的物理网络,所以虚拟机1和4天然不通。

5.对虚拟机配置了安全组,并被安全组策略拦截(安全组功能由虚拟机所在主机的 iptables

实现)

 

物理原因:

可能是网线出问题了,可能是服务器或者交换机的网口出问题了,可能是交换机出问题了,可能是物理服务器或者CAN出问题了。

 

故障排错:

虚拟机1和2不通举例

二层情况下:ping目标VM,不通

        查看arp表(不ping是因为刚ping完),如果有arp条目,则被可能被防火墙或第三方软件拦截。如果不存在,则说明时二层问题。

三层情况下:在源目查看arp表是否存在各自的网关,如果不存在,则是本端二层有问题

存在的话,各自ping下自己的网关看看是否能通,不能通还是二层问题,通的话,再ping对端VM的网关,通则可能被防火墙或第三方软件(为什么要ping网关,因为可能arp条目老化时间到了,ping是为了让arp重新有网关条目)。

 

如果在不同路由器下,则可能是路由问题,用tracert

         二层问题:

                  检查虚拟机网口配置,查看连接的端口组

                  看是否在同一CAN主机,不在看条件是否允许迁移至同一主机,如果通,则可能是物理网络配置问题(到交换机上检查是否允许VLAN通过)

 

可以在不同DVS上划分相同的VLAN,因为两个不同物理网络的VLAN可以相同,这是两个不同的二层。

 

注意:对PVID不熟的建议不要提,避免考官挖坑。

 

引申:虚拟机单通什么原因?就是A能ping通B,B不能ping通A

1、虚拟机1开了防火墙,虚拟机2关闭了,导致单通。

2、安全组拦截了。(不一定)

3、物理交换机设置了ACL策略。(怎么查看ACL配置?display acl)

 

ACL策略拦截,通过命令在TOR交换机如何查看?

比如dis cu、dis this、dis acl等等(这都是简写,具体可以看看华为交换机的手册)

 

虚拟机不通快速定位?

比如VM1和VM3不通快速定位,首先我们将VM3迁移致CNA01中,然后去ping,如果能通,那么是TOR交换机的问题,如果不通就是DVS的问题。

 

虚拟机1和虚拟机4要通怎么做?

可以把2个TOR交换机打通,此时分情况考虑,如果是2层的话,只要在TOR交换机之间配置Trunk,且放行相应的VLAN就行了。如果是3层的话,除了TOR交换机之间配置Trunk和放行相应的VLAN外,还要配置路由(静态路由或者OSPF等等),使得3层互通。

 

PVID导致2VM不通过程:

 

 

 

 

Trunk口VLAN ID和PVID相同,从该口发出数据报文时,就会去掉Tag

红色:发包

绿色:回包

由图可知,回包时会丢弃改报文(因为发送报文时,会检测自身tag是否与PVID一致,如果一致则去掉tag标签发送出去)。

 

虚拟机网关在哪里?

可以在核心交换机上,也可以是路由器,不过一般都是在核心交换机上。

 

中继场景下,同一个ip网段的虚拟机但是不同vlan能不能只通过中继这个端口组通信?

不能。

 

同主机同vlan,主机网卡坏了,能通吗?

能通信,由于同主机同VLAN是二层通信,只需要通过虚拟交换机,不需要借助主机网卡

 

不同网段同VLAN可以通信吗?

可以,可以在交换机下的VLANIF下配置2个网段的网关

 

同网段不同VLAN可以通信吗?

可以,可以配置Super VLAN

 

端口组的VLAN可以设置为0吗?

可以,0表示不带标签(或者说Tag)

 

VLAN池范围是多少?

1-4094

 

怎么看2台虚拟机在不在同一个主机?

在VRM上看最直接

 

VM网卡MAC可以修改吗?

可以修改,但前提是虚拟机关机后才可以修改,在“虚拟机——硬件——网卡”进行修改。

 

同主机同DVS同端口组中的虚拟机,通信时走不走外部网络?

不走

 

一台主机上两个不同的DVS,不同的vlan之间通信,走不走外部网络?

 

同一主机同一VLAN,主机网卡坏了,两虚拟机能通吗?

能通,他们走的是内部OVS

 

端口组有什么类型?

有普通和中继。

端口组的普通类似于物理交换机的access,端口组的中继类似于物理交换机的trunk,普通类型的虚端口只能属于一个VLAN,中继类型的虚端口可以允许多个VLAN接收和发送报文。普通虚拟机选择普通类型的端口,虚拟机的网卡启用VLAN设备的情况下选择中继类型的端口,否则虚拟机的网络可能不通。

 

在交换机怎么配置端口?

举例:

Interface g0/0/1

Port link-type access/trunk/hybrid(一般都是trunk)

Port default vlan xx(access)

Port trunk allow-pass vlan xx(trunk)

Port hybrid vlan xx untagged(hybrid)

 

安装CNA时,管理平面用Vlan50,交换机上怎么配?打tag还是不打tag?

交换机配置trunk且放行Vlan50就行,不打tag

 

中继有什么作用?

端口组配置为中继的方式后,可以在Linux虚拟机内创建多个VLAN设备,这些VLAN设备通过1个虚拟网卡即可以收发携带不同VLAN标签的网络数据包。使虚拟机不用创建多个虚拟网卡,即可收发携带不同VLAN标签的网络数据包。

 

假设情景:a虚拟机有1和2两个网卡,b虚拟机有1网卡,ab虚拟机的1网卡能通,a虚拟机的2网卡和b虚拟机的1网卡不通是为什么?

可能是a虚拟机的1和2两个网卡绑定的vlan端口组不同,a虚拟机的1网卡和b虚拟机的1网卡属于同一vlan端口组,a虚拟机的2网卡和b虚拟机的1网卡不在一个vlan端口组内。

 

两台VM原本能通,突然不通了?判断原因

首先就是排查硬件设备是否故障,比如交换机是否断电,发生故障,网卡是否有问题等,若排除了硬件问题后,将两个VM迁到其他正常运行的CAN节点上,看两个VM是否能通,能通就说明是原来的cna节点有问题,将该cna上的虚拟机迁走,重启cna,完成后试一下能否ping通对应的网关,能通再将俩个vm迁回来,应该两个VM能通了。

 

两个虚拟机是二层互通还是三层互通?

既可以二层互通也可以三层互通。二层只要配置Trunk且放行相应的VLAN即可,如果同主机,配置相同的端口组就行。三层下除了在二层的基础上,还要配置路由才能使得两个虚拟机互通。

 

 

7. 存储虚拟化

1、裸设备+逻辑卷              非虚拟化数据存储              性能较好

2、主机存储虚拟化+文件系统   虚拟化数据存储    san(vims) 本地磁盘(ext4)        nas(nfs)性能较差,应用于快照、链接克隆、精简配置等

3、存储设备虚拟化     FusionStorage、advanced san

 

扩展:

裸设备+逻辑卷:通过给宿主机(CNA)挂载块设备,宿主机采用DeviceMapper的内核模块对块设备空间进行逻辑划分成逻辑卷,此时逻辑卷即为虚拟磁盘。在FusionCompute的环境中,非虚拟化的本地数据存储、非虚拟化的SAN数据存储就是采用该方式实现。

 

存储设备虚拟化:赋予虚拟化平台的管理节点(VRM)管理存储设备的能力(添加存储资源),

在VRM界面上操作创建虚拟磁盘后,VRM会通过控制流在存储设备上创建相应块设备

(AdvanceSAN为LUN,FusionStorage为卷)。在VRM界面上将该类虚拟磁盘挂载给某台虚拟机并点击打开电源后,VRM会通过控制流在存储设备上将LUN或卷映射给即将运行虚拟机的CNA主机,CNA主机再通过RDM的方式将映射上来的块设备挂载给虚拟机。

 

主机存储虚拟化+文件系统:1.通过给宿主机(CNA)挂载块设备,CNA主机对其格式化成文件系统(本地硬盘:ext4、SAN:VIMS,添加数据存储时选择虚拟化的数据存储),并通过文件的形式存放虚拟磁盘。2.通过给宿主机(CNA)挂载共享文件系统(NFS),并通过文件的形式存放虚拟磁盘。

 

引申:

FusionStorage是不是虚拟化数据存储?

不是,虚拟化数据存储特指由CNA自身实现的虚拟化特性,例如快照、精简磁盘等,即对应存储虚拟化为主机存储虚拟化+文件系统。FusionStorage支持虚拟化特性,是通过FusionStorage存储系统自身机制实现的,CNA并未参与。

 

 

9. 如何给一个FC添加一个数据存储?

1、在FC上,添加存储资源(名字、类型、IP)

2、在存储侧创建lun,创建lun

创建主机,创建主组    添加映射关系

3、在FC上,存储资源,关联主机

4、在FC上,扫描存储设备,会扫出前面所映射单元

5、在FC上,把存储设备添加为数据存储。(虚拟化、非虚拟化、裸设备映射)

 

10.【一般】主机和VRM心跳连接异常的原因有哪些?怎么解决?

可能原因:1.CNA节点下电。2.网络出现异常。3.CNA节点管理网口异常。4.CNA节点进程异常。

解决办法

1.在告警信息中确认异常主机的IP和BMC IP;

2.登录BMC,检查主机是否下电;

3.如果是下电状态,选择上电,待主机上电成功后,查看告警是否清除;

4.用putty登录VRM后台,尝试ping主机的ip,如果不通,检查网络问题。如果通的话,用putty登录CNA节点,service vnad status 查看vnad服务是否启动,如果没有启动,service vnad restart。

 

11. 什么是云计算,云计算与虚拟化的区别?云计算一定要虚拟化吗?

云计算和虚拟化区别时要明确云计算是一种服务模式,是多种技术的集合,面向的是用户,虚拟化是一种具体技术,他只是云计算使用的多种技术之一。

 

云计算是一种模型,它可以随时随地、便捷地按需从资源池中取得资源,并能够使资源快速供应和释放,从而减轻管理人员的工作量,并与服务供应商的交互减小到最低限度。

 

云计算优势:云计算主要偏向于服务的管理与业务的自动化运营,使业务的上线周期大大的缩短,同时它能够屏蔽底层的资源提供方式,做到兼容异构,用户只需关心自己需要的资源是什么有多少,不需要关心云计算提供商资源是如何提供的。

 

虚拟化是一种具体的技术,实现的是对硬件资源的虚拟化,提升资源利用率,降低能耗。云计算是一种概念各种技术组件的集合,针对的是对各种资源的管理和调度,面向的是服务层面,虚拟化只是云计算使用的技术之一,没有虚拟化技术也可以用物理硬件来实现云计算。

 

 

 

 

 

 

引申:

什么是KVM?

KVM全称Kernel-based Virtual Machine,中文名称基于内核的虚拟机,是一种用于Linux内核中的虚拟化基础设施,可以将Linux内核转化为一个虚拟机监视器(Hypervisor)。KVM是开源软件,其还需要一个经过修改的QEMU软件(qemu-kvm),作为虚拟机上层控制和界面,且需要硬件支持虚拟化技术(如Intel VT或AMD-V)。

 

KVM只实现计算虚拟化,即CPU+内存,IO虚拟化由qemu完成。

 

云计算的关键特征:

  1. 按需自助服务(On-demand Self-service)
  2. 无处不在的网络接入(Ubiquitous network access)
  3. 与位置无关的资源池(Location independent resource pooling)
  4. 快速弹性(Rapid Elastic)
  5. 按使用付费(Pay per user)

 

OpenStack和虚拟化的差别:

OpenStack是云操作系统,故其目的是为了屏蔽底层的差异,进行向上提供统一的、抽象接口。而底层的差异包含来自虚拟化间的差异。所以从架构上OpenStack在虚拟化的上面。

 

解释下IaaS、PaaS、SaaS:

l  IaaS:基础设施即服务,指的是把基础设施以服务形式提供给最终用户使用。包括计算、存储、网络和其它的计算资源,用户能够部署和运行任意软件,包括操作系统和应用程序。例如:虚拟机出租、网盘等。

l  PaaS:平台即服务,指的是把二次开发的平台以服务形式提供给最终用户使用,客户不需要管理或控制底层的云计算基础设施,但能控制部署的应用程序开发平台。例如:微软的Visual Studio开发平台。

l  SaaS:软件即服务,提供给消费者的服务是运行在云计算基础设施上的应用程序。例如:企业办公系统。

 

解释下公有云、私有云、混合云。各自的应用场景,举例说明公有云:

l  私有云:一般由一个组织来使用,同时由这个组织来运营。华为数据中心属于这种模式,华为自己是运营者,也是它的使用者,也就是说使用者和运营者是一体,这就是私有云。

l  公有云:就如共用的交换机一样,电信运营商去运营这个交换机,但是它的用户可能是普通的大众,这就是公有云。

l  混合云:它强调基础设施是由二种或更多的云来组成的,但对外呈现的是一个完整的实体。企业正常运营时,把重要数据保存在自己的私有云里面(比如:财务数据),把不重要的信息放到公有云里,两种云组合形成一个整体,就是混合云。比如说电子商务网站,平时业务量比较稳定,自己购买服务器搭建私有云运营,但到了圣诞节促销的时候,业务量非常大,就从运营商的公有云租用服务器,来分担节日的高负荷;但是可以统一的调度这些资源,这样就构成了一个混合云。

 

12.【重点】服务器虚拟化架构

6.3.1的FC(老版本):

 

FusionSphere逻辑架构:

 

 

 

 

FusionSphere eSDK:

可选部件

FusionSphere eSDK是FusionSphere服务器虚拟化北向统一接口,第三方网关系统和其他运营平台可以通过eSDK轻松完成无缝对接。eSDK开放了FusionSphere服务器虚拟化的全部能力,包括虚拟机的生命周期管理,虚拟化高级功能,运维管理功能等。

 

6.5.0的FC(老版本,目前考试说这个版本)

 

 

 

 

FusionCompute

必选部件

FusionCompute是云操作系统软件,主要负责硬件资源的虚拟化,以及对虚拟资源、业务资源、用户资源的集中管理。它采用虚拟计算、虚拟存储、虚拟网络等技术,完成计算资源、存储资源、网络资源的虚拟化。同时通过统一的接口,对这些虚拟资源进行集中调度和管理,从而降低业务的运行成本,保证系统的安全性和可靠性,协助运营商和企业构筑安全、绿色、节能的云数据中心能力。

 

FusionManager

可选部件

FusionManager主要对云计算的软件和硬件进行全面的监控和管理,实现同构,异构VMware虚拟化多资源池管理,软硬件统一告警监控,并向内部运维管理人员提供管理门户。

 

eBackup

可选部件

eBackup是虚拟化备份软件,配合FusionCompute快照功能和CBT(Changed Block Tracking)备份功能实现FusionSphere的虚拟机数据备份方案。

 

UltraVR

可选部件

UltraVR是容灾业务管理软件,利用底层SAN存储系统提供的异步远程复制特性,提供虚拟机关键数据的数据保护和容灾恢复。

 

应用场景介绍:

  • 单虚拟化场景:

单虚拟化场景适用于企业只采用FusionCompute作为统一的操作维护管理平台对整个系统进行操作与维护的应用场景。包含资源监控、资源管理、系统管理等。

FusionCompute主要负责硬件资源的虚拟化,以及对虚拟资源、业务资源、用户资源的集中管理。它采用虚拟计算、虚拟存储、虚拟网络等技术,完成计算资源、存储资源、网络资源的虚拟化。同时通过统一的接口,对这些虚拟资源进行集中调度和管理,从而降低业务的运行成本,保证系统的安全性和可靠性。

  • 多虚拟化场景:

多虚拟化场景适用于企业有多套虚拟化环境需要进行统一管理。多虚拟化场景提供如下主要功能:

l  统一管理和维护:支持同时接入FusionCompute和VMware虚拟化环境,对多虚拟化环境的资源和业务进行统一的管理和维护。

l  统一监控告警:支持对多个虚拟化环境、多种物理设备的告警进行统一接入、监控和管理。

  • 私有云场景:(考试不提这个,可以不看)

私有云场景适用于企业各部门需要各自管理虚拟资源及业务。发放业务时由管理员和租户分别完成不同的任务,共同完成业务的发放。管理资源时,管理员可以对系统所有资源进行管理;租户只能管理所属VDC的资源。

根据实际使用需求的不同,私有云场景又可分为多租户共享VPC场景和多租户私有VPC场景。

多租户共享VPC场景

该场景中,发放业务时管理员通过VDC将虚拟资源分给租户。租户在租户视图,创建虚拟机或应用实例时可使用管理员在共享VPC中创建的网络。若在创建VDC时,将管理员加入了VDC中,则管理员一人在不同视图中,可完成所有任务。该场景适用于如下情况:

n  企业各部门需要各自管理除网络之外的虚拟资源(包含虚拟机、磁盘等)及业务。

n  企业中的网络由管理员统一规划和维护,企业各部门均使用管理员创建的网络。

多租户私有VPC场景

该场景中,发放业务时管理员通过VDC将虚拟资源分给租户。租户在租户视图,自行创建VPC、网络、虚拟机或应用实例。当同时有共享网络需求时,可以由管理员创建共享VPC供所有租户使用。若在创建VDC时,将管理员加入了VDC中,则管理员一人在不同视图中,可完成所有任务。该场景适用于如下情况:

n  企业各部门需要各自管理虚拟资源(包含网络、虚拟机、磁盘等)及业务。

n  企业各部门的网络相互隔离,各自规划、创建和维护。

 

FusionCompute各模块功能:

CNA主要提供以下功能:

  • CAN:提供虚拟计算功能。
  • 管理计算节点上的虚拟机。
  • 管理计算节点上的计算、存储、网络资源。

VRM主要提供以下功能:

  • 管理集群内的块存储资源。
  • 管理集群内的网络资源(IP/VLAN/DHCP),为虚拟机分配IP地址。
  • 管理集群内虚拟机的生命周期以及虚拟机在计算节点上的分布和迁移。
  • 管理集群内资源的动态调整。
  • 通过对虚拟资源、用户数据的统一管理,对外提供弹性计算、存储、IP等服务。
  • 通过提供统一的操作维护管理接口,操作维护人员通过WebUI远程访问FusionCompute对整个系统进行操作维护,包含资源管理、资源监控、资源报表等。

 

华为FusionSphere是业界领先的服务器虚拟化解决方案,能够帮助客户带来如下的价值,从而大幅提升数据中心基础设施的效率。

  • 帮助客户提升数据中心基础设施的资源利用率。
  • 帮助客户成倍缩短业务上线周期。
  • 帮助客户成倍降低数据中心能耗。
  • 利用虚拟化基础设施的高可用和强恢复能力,实现业务快速自动化故障恢复,降低数据中心成本和增加系统应用的正常运行时间。

6.5.1的FC(新版本)

 

 

FusionCompute:

必选部件

FusionCompute是云操作系统软件,主要负责硬件资源的虚拟化,以及对虚拟资源、业务资源、用户资源的集中管理。它采用虚拟计算、虚拟存储、虚拟网络等技术,完成计算资源、存储资源、网络资源的虚拟化。同时通过统一的接口,对这些虚拟资源进行集中调度和管理,从而降低业务的运行成本,保证系统的安全性和可靠性,协助运营商和企业构筑安全、绿色、节能的云数据中心能力。

 

eBackup:

可选部件

eBackup是虚拟化备份软件,配合FusionCompute快照功能和CBT(Changed Block Tracking)备份功能实现FusionSphere的虚拟机数据备份方案。

 

UltraVR:

可选部件

UltraVR是容灾业务管理软件,利用底层SAN存储系统提供的异步远程复制特性,提供虚拟机关键数据的数据保护和容灾恢复。

 

-------------------------------------------------------------------------------

引申:

VRM故障,会影响业务虚拟机吗?还能创建虚拟机吗?

不会影响虚拟机。VRM故障,我们还可以通过CAN底层用命令行创建虚拟机。

 

FM可以接入多套FC吗?

可以

 

单虚拟化场景是否需要用到FM?

不用

 

FM可以对接ManagerOne吗?

可以

 

CAN和VRM通过什么协议通信?

通过REST协议

 

 

 

 

哪些组件非必选?哪些组件必选?

非必选FM、eBackup、UltraVR

必选FC

 

CAN和VRM全称怎么读?

CNA(Computing Node Agent,计算节点代理)

VRM(Virtual Resource Manager,虚拟资源管理器)

 

CAN有什么组件?

UVP(Unified Virtualization Platform):统一虚拟化平台

VNA(Virtualization Node Agent):虚拟节点代理

 

FM可不可以创建虚拟机给用户使用?

可以

 

FC(VRM)和FM有什么区别?

兼容性:FC只能对接自己的虚拟化平台,FM除了可以对接FC,还可以对接VMware

管理上:FC只能管理虚拟化资源,无法管理硬件资源,FM除了管理虚拟化资源,还可以管理物理硬件(如物理交换机、防火墙、服务器,存储设备,路由器)

服务自动化:FC需手动发放业务,FM可以自动化发放(慎答)

 

装FusionCompute是先装CAN还是VRM?

先装CAN,再装VRM,CAN可以ISO物理部署,也可以使用工具PXE安装,VRM可以物理ISO部署,也可以使用压缩包使用工具以虚拟机部署,且VRM可以单节点部署或者主备部署。

PS:具体可以参考FusionSphere文档。

 

13.【一般】内存分片+迭代迁移?

一开始对数据定格,新数据写入带新空间,把原来定格的数据传送到对端,在传送对端的过程中新产生的数据再进行定格,再一次发送,发送后又产生新数据,不断迭代,最后当新产生的数据量极少时,此时暂停源虚拟机,在一个极短的瞬间内,把剩下的数据发送给对端。

 

14.【一般】存储池

存储资源:

存储资源表示物理存储设备,例如IPSAN、FCSAN、FusionStorage、NAS等:

存储设备:

表示存储资源中的管理单元,存储设备有LUN、NAS共享目录、本地硬盘、FusionStorage存储池,一个存储资源可以有多个存储设备。

数据存储:

数据存储表示系统中可管理、操作的存储逻辑单元,一个数据存储和一个存储设备对应。

数据存储承载了具体的虚拟机业务,例如创建磁盘等。

数据存储和主机关联,为主机提供资源,数据存储可以关联到多个主机,一个主机也可以使用多个数据存储

 

存储资源:存储设备===1:N  存储设备:数据存储=====1:1

16.【重点】虚拟机热迁移?

前言:

考试答热迁移默认答更改主机的热迁移,存储热迁移和完整迁移不主动提,考官追问再答。

 

概念:虚拟机热迁移是指在不中断业务的情况下,将虚拟机从一台物理服务器移动至另一台物理服务器。

 

热迁移实现

1.更改主机:

针对内存:内存分片+迭代迁移

针对存储:共享存储,无需进行数据复制

2.更改数据存储

针对存储:MirrorIO+迭代迁移

3.更改主机和数据存储

针对内存:内存分片+迭代迁移

针对存储:MirrorIO+迭代迁移

 

热迁移需要用到快照技术吗?

不需要

 

虚拟机热迁移分为两种:

1.更改主机    2.更改主机和数据存储(完整迁移)

更改主机实现:

虚拟机管理器提供内存数据快速复制(内存分片+迭代迁移)和共享存储技术,确保虚拟机迁移前后数据不变。

 

更改主机

1)将虚拟机配置信息设备信息传送到目标主机上

2)传送虚拟机内存(迭代迁移)

将虚拟机迁移时的初始内存及内存变更分片同步到目标主机上

3)暂停源虚拟机并传送状态

在原主机上暂停虚拟机

将最后的变更内存传到目标主机

4)恢复目标虚拟机

1、在目标主机上恢复虚拟机,并在原主机上停止虚拟机

2、在源主机上先停止虚拟机,然后在目标主机上拉起虚拟机

PS:这里第四步有考官认可1说法,有考官认可2说法,考试建议以1说法为准。

 

热迁移条件:(更改主机)

虚拟机侧:

1、已登录FusionCompute。

2、虚拟机的状态为“运行中”。

3、虚拟机已安装Tools,且Tools运行正常。(目前新版本不需要Tools,可不提)

4、虚拟机未绑定图形处理器、USB设备。

5、已获取迁移的目标主机名称。

6、虚拟机未与主机绑定

主机侧:

1、如果源主机和目标主机的CPU类型不一致,需要开启集群的IMC模式。

2、当跨集群迁移时,源主机所属集群目标主机所属集群的内存复用开关设置需相同。

3、目标主机上有足够的CPU和内存资源

4、迁移过程中,不能将源主机和目标主机下电或重启

5、一台主机最多并发迁移8个虚拟机

6、目标主机不能是维护模式

网络:

虚拟机从一台主机迁移到另一台主机,只需要两主机能够三层互通即可,默认情况下,迁移流量走管理网络,如果配置了“虚拟机热迁移流量”接口,那么走业务管理接口,只要3层互通即可。在FusionCompute场景中,因保障虚拟机迁移后,仍能正常对外提供业务,所以FusionCompute强制要求目的主机关联虚拟机所在DVS,即DVS上行链路中有目的主机的端口为了保障虚拟机能正常对外提供业务,作为实施人员,需确保虚拟机迁移后,其仍能位于原二层网络中,即需确保上行链路放行迁移VM所在VLAN或采用Vxlan等大二层技术。

 

存储:

数据存储为虚拟化的共享存储(不一定要虚拟化数据存储,像FusionStorage就是非虚拟化数据存储)

 

虚拟机热迁移的应用场景:

计划性停机在进行服务器操作维护或者升级之前,系统维护人员将该服务器上的虚拟机迁移到其他服务器,完成操作之后再将虚拟机迁回,可降低操作维护或者升级过程中业务中断的风险。

绿色节能将空闲服务器上的虚拟机迁移到其他服务器,将没有负载的服务器关闭,降低业务运行成本。(DPM)

负载均衡将负载较重的服务器上的虚拟机迁移到其他服务器,提高服务器的资源利用率。(DRS)

 

热迁移失败有哪些原因:

①源主机和目标主机网络中断或网络不通;

目标主机无法访问虚拟机的磁盘;

③在迁移过程中源目标主机故障、被重启或已进入维护模式;

④源主机和目标主机的CPU类型不兼容;

⑤目标主机资源不足;

⑥设置了迁移超时时间,迁移时长超过了迁移超时时间。(设置迁移超时时间:创建迁移任务的地方可以勾选)

 

迁移超时有两种可能:1、虚拟机业务繁忙,这种情况下我们可以选择在业务不繁忙的时间段进行迁移;2、迁移流量默认使用的是管理网络,可能由于网络时延的问题导致迁移超时,这种情况下我们可以单独给虚拟机迁移规划一个网络来解决。

 

引申:

虚拟机热迁移时,传递的配置信息和设备信息具体是什么?保存在哪?

配置信息与设备信息可以统称为虚拟机的描述信息,其中配置信息是指虚拟机的操作系统、引导方式、引导次序等。虚拟机设备信息是指虚拟机的CPU个数、内存大小、硬盘及网卡信息等。

这些信息保存在VRM的数据库中、CNA上libvirt内存中、还会以文件的方式保存在VM系统盘所在的虚拟化数据存储上。在更改主机的热迁移时,只变更CNA上的libvirt内存,由源CNA上的libvirt传递给目的CNA上的libvirt。

 

热迁移中什么时候在对端创建虚拟机?

热迁移中,当虚拟机的设备信息和配置信息发送给对端后,才开始创建虚拟机。

 

热迁移默认走什么网络?

在未配置“虚拟机热迁移流量”业务管理接口的情况下,虚拟机热迁移默认经过CNA的管理网络平面,且管理网络需要互通。配置后,则通过“虚拟机热迁移流量”业务管理接口承载,同样的业务管理接口也需要互通。

 

绑定硬件设备为什么不能迁移?

迁移后对端没有设备

 

绑定了硬件设备就一定不能迁移了吗?

不是,解绑后就可以迁移了

 

热迁移是否会中断业务?

热迁移会中断业务,但是只会丢1-2个数据包,一般是1个,整个过程对用户是无感知的。

 

中断多长时间?

最后一次数据同步+业务切换时长

 

冷迁移时什么?热迁移和冷迁移的区别是什么?

冷迁移是将虚拟机关机进行迁移。热迁移和冷迁移最大的区别是开机迁移和关机迁移。

 

虚拟机迁移过程中,主机掉电,会如何?

最直接的结果是迁移失败,但是源VM仍然在源主机上运行,而目标主机删除VM迁移的数据

 

 

IMC在哪里开启?

集群,且同集群不用开启,跨集群才要开启。

 

IMC模式,一端高版本,一端低版本,怎么迁?

只能从高的往低的迁。

 

跨集群热迁移能不能迁移?跨数据中心能不能迁移?

跨集群可以迁移,但两个集群的内存复用开关要一致,两个集群使用相同的DVS,相同的共享存储。不同站点间多个集群想做热迁移必须打通VXLAN。

 

两台VM属于不同网段我们虚拟机可以迁移么?

可以,只要网络互通就行

 

为什么要内存复用开关设置一致?

若不开内存复用,物理内存与虚拟机内存的对应关系是一一对应的,若开启了内存复用,物理内存与虚拟机内存的关系不再是一一对应关系。若内存复用开关不一致,会导致虚拟机迁移失败。

 

为什么要登录FusionCompute,不登录能迁移吗?

手动迁移需要登录,自动迁移不需要,如DRS、DPM

 

跨DVS可以热迁移吗?

不可以

 

热迁移中Tools有什么作用?

监控虚拟机的内存和CPU状态和迁移进度。

 

没有放行虚拟机所在的VLAN可以迁移吗?

可以,但是迁移后可能不能对外提供服务

 

迁移后虚拟机的MAC地址会变化吗?

为了保证业务的连续性,MAC不会变化,IP也不改变

 

挂载了光驱能否热迁移?

不能,因为光驱也是IO设备。

 

迁移过程中暂停源端虚拟机,系统做了什么,暂停的是什么?

暂停虚拟机的IO,防止内存出现变更。传递最后的内存变更信息终端的是VM的内存变更和磁盘的IO。

 

热迁移具体迁移了什么数据?

内存里的数据。

 

故障条件下能否进行热迁移?

不能。

 

热迁移失败,你在现场,怎么快速排查。(用工具PING/ARP-P/tracert)

1、使用ping命令后,查看arp表项。如果有,则说明两台VM在同一二层,可能是防火墙拦截、IP地址配置错误等。若没有arp表项,则可能不在同一二层。

2、不在同一二层。Tracert/tracerout目的端。若源网关能到,说明源二层没问题,目的二层有问题。若源网关不可达,说明源端二层存在问题,目的二层可能也存在问题。

 

17.【重点】存储热迁移?

定义:虚拟机正常运行时,管理员可通过手动操作,将虚拟机的磁盘迁移至其他存储单元。存储热迁移可在存储虚拟化管理下的同一个存储设备内、不同存储设备之间进行迁移。热迁移使客户在业务无损的情况下动态调整虚拟机存储资源,以实现设备维护等操作。

 

存储热迁移:将“运行中”的虚拟机的虚拟磁盘从一个数据存储迁移到另一个数据存储上,迁移过程中“业务不中断”(用户无感知)。

迁移过程:

  1. 通过源磁盘文件在目标数据存储创建一个空的磁盘文件;
  2. 在目的磁盘文件设置为源磁盘文件的mirror,业务I/O双写至源目的磁盘文件,保证脏数据的实时同步
  3. 通过迭代技术,将源磁盘文件的基线数据迁移至目的磁盘文件
  4. 当基线数据迁移完成,短暂的时间内暂停虚拟机的IO请求,将虚拟机的存储文件从源镜像切换到目的镜像上,这样就完成了存储的迁移

 

存储热迁移同时迁移虚拟机磁盘和镜像和系统内存状态。

 

存储热迁移应用场景:

  1. 将数据存储的所有卷迁移后,可以对数据存储进行减容
  2. 可以调整数据存储之间的负荷
  3. 存储的升级和维护

 

存储热迁移约束:

  1. 不支持迁移已挂载的“共享”类型的磁盘和链接克隆虚拟机的磁盘
  2. 不支持非持久化磁盘
  3. 不支持跨FusionStorage迁移(但是支持在同一个FusionStorage Block存储资源的不同数据存储之间进行迁移)

 

为什么链接克隆虚拟机磁盘不能迁移?

因为无法对母卷进行迁移

 

新版版IP胶片存储热迁移:

 

 

 

  1. 热迁移首先使用写时重定向,将虚拟机数据写入目的存储的一个差异磁盘,这样,原磁盘文件就变成只读的。
  2. 将源卷的所有的数据块依次读取出来并合并到目标端的差异磁盘中,等数据合并完成后,目的端的差分磁盘就拥有虚拟磁盘的所有最新数据。
  3. 去除目的端快照对源卷的依赖,将差分磁盘修改为动态磁盘,这样,目的端磁盘文件可以独立运行。

 

18.【一般】虚拟磁盘的类型有哪些?配置模式有哪些?磁盘模式有哪些?

类型:

l  普通:普通磁盘只能单个虚拟机使用。

l  共享:共享磁盘可以绑定给多个虚拟机使用

普通类型:根据磁盘容量为磁盘分配空间,在创建过程中会将物理设备上保留的数据置零。这种格式的磁盘性能要优于其他两种磁盘格式,但创建这种格式的磁盘所需的时间可能会比创建其他类型的磁盘长。建议系统盘使用该模式。

共享类型:多台虚拟机使用同一个共享磁盘时,如果同时写入数据,有可能会导致数据丢失。若使用共享磁盘,需要应用软件保证对磁盘的访问控制。

 

配置模式:

l  普通:根据磁盘容量为磁盘分配空间,在创建过程中会将物理设备上保留的数据置零。这种格式的磁盘性能要优于其他两种磁盘格式,但创建这种格式的磁盘所需的时间可能会比创建其他类型的磁盘长。

建议系统盘使用该模式。

l  精简:该模式下,系统首次仅分配磁盘容量配置值的部分容量,后续根据使用情况,逐步进行分配,直到分配总量达到磁盘容量配置值为止。

说明:

使用精简模式可能导致数据存储超分配,建议超分配比例不超过50%。超分配率可通过数据存储的详细信息页签“已分配容量”和“总容量”的比率关系来确定。

l  普通延迟置零:根据磁盘容量为磁盘分配空间,创建时不会擦除物理设备上保留的任何数据,但后续从虚拟机首次执行写操作时会按需要将其置零。创建速度比“普通”模式快;IO性能介于“普通”和“精简”两种模式之间。

只有数据存储类型为“虚拟化本地硬盘”或“虚拟化SAN存储”时,支持该模式。

 

引申:

这3种分别对应VMware中的厚置备置零(普通)、【Thin Provision(精简置备)】(精简)、厚置备延迟置零(普通延迟置零)。

 

磁盘模式:

l  从属:快照中包含该从属磁盘,更改将立即并永久写入磁盘。

l  独立-持久:更改将立即并永久写入磁盘,持久磁盘不受快照影响。

即对虚拟机创建快照时,不对该磁盘的数据进行快照。使用快照还原虚拟机时,不对该磁盘的数据进行还原。

l  独立-非持久:关闭电源或恢复快照后,丢弃对该磁盘的更改。(恢复快照会重启,所以会也是会丢弃对磁盘的更改)

若选择“独立-持久”或“独立-非持久”,则对虚拟机创建快照时,不对该磁盘的数据进行快照。使用快照还原虚拟机时,不对该磁盘的数据进行还原。

如果快照后,该磁盘被解绑定且未绑定其他虚拟机,则快照恢复的虚拟机会重新绑定该磁盘,但磁盘数据不进行还原。

如果快照后,该磁盘被删除,则快照恢复的虚拟机上不存在该磁盘。

限制条件:

当数据存储类型为“虚拟化本地硬盘”、“虚拟化SAN存储”、“NAS存储”或“FusionStorage Block”,且磁盘类型为“共享”时,该磁盘不支持创建快照,默认“独立-持久”。

当磁盘类型为“普通”且数据存储类型为“虚拟化本地硬盘”、“虚拟化SAN存储”、“FusionStorage Block”或“NAS存储”时,磁盘才可以创建为“独立-非持久”模式。

 

不同类型数据存储支持的模式:

 

 

 

 

引申:

置零是为什么?

是为了防止数据残留。

 

精简存储有什么好处和坏处?

好处:可以任意给虚拟机分配磁盘空间,对用户来说是不知道到磁盘空间按需分配的,可以在资源紧张的情况下满足客户的容量需求。

坏处:如果物理存储在一定量的情况下,虚拟机磁盘的容量分配过多,可能会导致客户看到容量足够但无法写入的情况,因为此时物理容量可能不够了。

 

19. 数据存储是虚拟化或非虚拟化的本质差别。

当数据存储的虚拟化特性是由主机侧去实现时,其根本就是将存储设备格式化为文件系统。本地存储格式成ext4,共享存储格式成vims。

非虚拟数据存储,就是一个块设备。

 

20. VRM虚拟机可以不可迁移?为什么?

通过部署工具导入的VRM,被自动配置成“与主机绑定”,故不可以迁移。

 

21. FusionCompute计算资源调度策略、DRS、DPM的优先级

DPM>调度策略>DRS

调度策略:

l  聚集虚拟机:列出的虚拟机必须在同一主机上运行,一个虚拟机只能被加入一条聚集虚拟机规则中。

l  互斥虚拟机:列出的虚拟机必须在不同主机上运行,一个虚拟机只能被加入一条互斥虚拟机规则中。

l  虚拟机到主机:关联一个虚拟机组和主机组并设置关联规则,指定所选的虚拟机组的成员是否能够在特定主机组的成员上运行。

 

引申:

 

第一优先级:规则类型为“虚拟机到主机”,规则是“必须在主机组上运行”和“禁止在主机组上运行”的。

第二优先级:规则类型为“聚集虚拟机”和“互斥虚拟机”的。

第三优先级:规则类型为“虚拟机到主机”,规则是“应该在主机组上运行”和“不应该在主机组上运行”的。

 

22. 什么是KVM?

KVM全称Kernel-based Virtual Machine,中文名称基于内核的虚拟机,是一种用于Linux内核中的虚拟化基础设施,可以将Linux内核转化为一个虚拟机监视器(Hypervisor)。KVM是开源软件,其还需要一个经过修改的QEMU软件(qemu-kvm),作为虚拟机上层控制和界面,且需要硬件支持虚拟化技术(如Intel VT或AMD-V)。

 

23.【一般】Tools:

Tools是虚拟机的驱动程序。

可以提高虚拟机的I/O处理性能、实现对虚拟机的监控和其他高级功能。

  1. 为虚拟机提供高性能的磁盘I/O和网络I/O功能
  2. 为虚拟机提供虚拟硬件监控功能
  3. 获取虚拟机指定网卡IP信息
  4. 获取虚拟机内部各CPU利用率、内存利用率
  5. 获取虚拟机内各个磁盘/分区的空间使用信息

 

安装Tools后,可提高虚拟机的性能,实现对虚拟机的硬件监控和虚拟机的高级功能,

如迁移虚拟机、对虚拟机创建快照、在线调整虚拟机的CPU规格、创建虚拟机快照、虚拟机蓝屏检测、虚拟机与主机时钟同步、虚拟机网卡的高级功能,如QoS、流量整形、ARP广播抑制、DHCP隔离、IP与MAC绑定。还有自动升级虚拟机的驱动程序,如Tools和智能网卡驱动。

 

24.【一般】什么是安全组?如何实现?

安全组为虚拟防火墙规则提供容器,用于控制端口级别的入站和出站的网络流量。安全组默认拒绝,以及只允许规则定义的特定流量。通常,安全机是基于宿主机的iptables实现的,因此相对防火墙而言更加灵活,可以限制同网段内的流量。安全组的成员为虚拟机的端口。

 

25.【重点】什么是DVS?

DVS全称分布式虚拟交换机,是由VRM维持并跨越多台CNA的逻辑交换机。用户在VRM上的操作,VRM会利用软件功能,在CNA上划分出很多虚拟的交换机。这个虚拟交换机能实现单个物理服务器内的VM之间的交换,也能实现不同物理服务器之间VM之间的交换。DVS最主要的作用是整合位于同一物理平面的不同CNA上的虚拟交换机,达到简化网络、易管理的目的。

 

引申:

什么是物理网络?

物理网络指的是物理的二层网络,指在没有vlan等二层虚拟化网络技术的情况下,对应一个二层广播域。

 

什么是上行链路?

DVS上虚拟端口到CNA主机物理网卡的链路,DVS通过上行链路关联CNA主机,通过上行链路可以将CNA内的虚拟机流量转发到物理网络中。

 

上行链路可以直接使用CNA主机上的物理网口或由物理网口形成的绑定网口。

一个DVS不能绑定多个物理网口或者多个绑定网口(单主机情况是这样,多主机的话,一个DVS可以有多个物理网口或者多个绑定网口,也就是每台主机提供一个物理网口或者绑定网口)。

同一个网口不能同时被多个DVS使用。

注意:如果一个DVS绑定多个网口,那么回包时就不知道从哪一个网口回去了

 

如果我一个物理主机只有一张网卡,我要做两个DVS,要怎么做?

一个网口只能关联一个DVS

 

什么是OVS/EVS?

OVS是一款使用开源软件实现的虚拟交换机,支持多种标准接口和协议,支持多个物理服务器的分布式环境,提供了对openflow协议的支持,并且能够与众多开源的虚拟化平台整合。

EVS是华为基于OVS开发的技术,通过Intel DPDK技术,提升了IO性能,仍然遵从openflow协议,通过用户态进程接管网卡数据,采用每个端口分配一个核专门用于数据收发,这种轮询的方式比中断式的处理更高效,因而IO性能有显著提升。

OVS和EVS在FC中对用户体现的都是DVS。

 

什么是端口组?

连接在同一端口组的虚拟机网卡,具有相同的网络属性(如:VLAN、QoS、安全属性等),以提供增强的网络安全、网络分段、更佳的性能、高可用性以及流量管理。

 

引申:端口组和VLAN的比列关系?

一个DVS下,端口组和VLAN可以是1:1,也可以是1:m(端口组类型设置为中继即可实现),也可以是m:1(可以创建名字不同的端口组,但是VLAN可以设置一致)。由此可知端口组和VLAN的比列是M:N。

不同的DVS,可以创建完全相同的端口组,包括名称、VLAN号。

 

虚拟机的网关一般在哪里配置?

一般在核心交换机或者路由器上配置。

 

FC上对CNA的网口聚合有什么方式?

对于普通网卡,绑定模式可以选择以下几种:

主备:绑定的对象为两个网口时,如需提高可靠性,建议将绑定的网口配置为主备关系。主备模式速率等同于单个网口的速率。

 

基于轮询的负荷分担:绑定的对象为两个或两个以上的网口时,通过对绑定的网口依次轮询来分担数据流,使绑定后的带宽高于单个网口的带宽,是一种简单的负荷分担方式。(该模式使网络流量完全均匀地发送给各个网口,但可能产生大量报文乱序。因此,建议绑定为负荷分担模式时,优先选择基于源和目的MAC的负荷分担。)

 

基于源目的IP和端口负荷分担:绑定的对象为两个或两个以上的网口时,通过源目的IP和端口负荷分担算法使绑定后的带宽高于单个网口的带宽。(源和目的端口的负荷分担算法:当报文中有IP和端口时,使用源目的IP、端口和MAC进行负荷分担;当报文仅有IP地址时,使用IP地址和MAC进行负荷分担;当报文仅有MAC地址时,使用MAC地址进行负荷分担。该模式一般用于部署VXLAN的场景,此时网络流量可基于报文中的源端、目的端端口均匀散列。)

 

基于源目的MAC的负荷分担:绑定的对象为两个或两个以上的网口时,通过源端和目的端网口MAC地址对应关系分担数据流,使绑定后的带宽高于单个网口的带宽。(该模式一般用于网络流量大部分在二层网络内部的场景,此时网络流量可通过MAC均匀散列。)

 

基于源目的MAC的LACP:在“基于源和目的MAC的负荷分担”的基础上,使用LACP协议,使绑定后的端口具备检测链路层故障、自动切换故障链路的功能。

 

基于源目的IP的LACP:绑定的对象为两个或两个以上的网口时,通过源和目的IP负荷分担算法(当报文有IP地址时,使用IP地址和MAC进行负荷分担;当报文仅有MAC地址时,使用MAC地址进行负荷分担)使绑定后的带宽高于单个网口的带宽。同时使用LACP协议,使绑定后的端口具备检测链路层故障、自动切换故障链路的功能。(该模式一般用于大部分网络流量跨三层网络的场景。)

 

注意:

(1)在所有负荷分担模式下,需要在网口连接的交换机上做端口汇聚配置,即将主机待绑定的网口在对端交换机上的端口配置到同一个Eth-trunk,否则会导致网络通信异常。

(2)在LACP模式下,需要在网口连接的交换机上创建LACP模式的Eth-trunk,并在该Eth-trunk上开启BPDU协议报文转发功能。

 

对于支持DPDK驱动的物理网卡,绑定模式可以选择以下几种:

  1. DPDK驱动的主备模式:是专用于用户态驱动模式下的网口的绑定类型,与普通网卡的主备模式原理和适用场景相同,但能够提供更高性能的网络报文处理能力。
  2. DPDK驱动的基于源目的MAC的LACP模式:是专用于用户态驱动模式下的网口的绑定类型,与普通网卡的基于源目的MAC的LACP模式原理和适用场景相同,但能够提供更高性能的网络报文处理能力。
  3. DPDK驱动的基于源目的IP和端口的LACP模式:是专用于用户态驱动模式下的网口的绑定类型,与普通网卡的基于源目的IP和端口负荷分担的原理和适用场景相同,但能够提供更高性能的网络报文处理能力。

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM