[雲計算]HCIE-Cloud 雲計算運營 - FusionStorage


FusionStorage 簡介

  • FusionStorage(華為Server SAN產品)

    • 分布式塊存儲軟件(主要指FusionStorage Block)
    • 將通用x86服務器的本地HDD、SSD存儲介質通過分布式技術組織成大規模存儲池
    • 對非虛擬化上層應用和虛擬機提供SCSI、iSCSI接口
    • 開放的API
    • Server SAN:由多個獨立服務器自帶的存儲組成的一個存儲資源池,同時融合了計算和存儲資源

    • 優點:

      • 專有設備變通用設備
      • 計算與存儲線性擴展
      • 簡單管理、低TCO
      • 與廠商專用硬件解耦
      • 計算與存儲融合
    • TCO(Total Cost of Ownership )即總擁有成本,包括產品采購到后期使用、維護的成本。這是一種公司經常采用的技術評價標准。

  • FusionStorage與傳統存儲設備的對比的優點

    • 高擴展性:
      • 傳統存儲設備:擴展存儲需要增加控制器個數或者更換存儲設備。
      • FusionStorage:容量與性能可線性增加,性能超越中高端存儲。
    • 高性價比:
      • 傳統存儲設備:成本隨性能增加,更新迭代快。
      • FusionStorage:支持融合部署,通用x86服務器堆疊擴展,節約成本;網絡扁平化,擴容簡單;已有設備利舊,保護投資。
    • 高可靠性:
      • 傳統存儲設備:硬盤故障要立刻更換,並手動恢復。
      • FusionStorage:提高機櫃間,服務器間可靠性,故障業務無影響;硬盤故障無需手動管理,自動數據重建恢復。
    • 並行快速數據重建:
      • 傳統存儲設備:重建慢(1TB約12小時)
      • FusionStorage:分布地數據恢復重建(1TB小於10分組)
  • FusionStorage與傳統存儲設備的對比的缺點

    • 利用率低:FS采用兩副本或三副本機制,存儲利用率較低。
    • 不支持FC網絡:FS目前支持以太網、RoCE、IB網絡。
    • 部署較復雜:FS至少三節點起步,並且在節點數據達到一定規模后性能才能追上傳統存儲;而且在小規模的場景中實施會比傳統存儲復雜許多(FS需要考慮MDC、VBS、OSD及網絡的規划)。
    • 時延高:FS一般不適用於關鍵性的業務場景,但是可以通過IB組網、SSD Cache等方式減少時延。

    小規模場景:至少3台服務器,每個服務器12塊硬盤(服務器級安全)

    大規模場景:至少12台服務器,每個服務器12塊硬盤,至少三個機櫃(機櫃級安全)

  • FusionStorage兩大應用場景

    1. 虛擬化應用
    2. 高性能數據庫物理部署

FusionStorage 邏輯架構

FSM(FusionStorage Manger):FusionStorage管理模塊,提供告警、監控、日志、配置等操作維護功能,一般情況下FSM主備節點部署。

FSA(FusionStorage Agent):FusionStorage代理進程,實現各個節點和FSM通信。FSA包含MDC、VBS和OSD三種不同的進程,根據系統不同配置要求,分別在不同的節點上啟用不同的進程組合來完成特定的功能。

MDC(MetaData Controller):元數據控制組件,實現對分布式集群的狀態控制、數據重建規則等。(MDC默認部署在3個節點的ZK盤上,形成MDC集群。)

VBS(Virtual Block System):虛擬塊存儲管理組件,負責卷元數據的管理,VBS通過SCSI或iSCSI接口提供分布式存儲接入點服務,使計算資源能夠通過VBS訪問分布式存儲資源。VBS與其所能訪問的資源池的所有OSD點對點通信,使VBS能並發訪問這些資源池的所有硬盤。(每個節點上默認部署一個VBS進程,形成VBS集群,節點上可通過部署多個VBS來提升IO性能。)

OSD(Object Storage Device):對象存儲設備服務,執行具體的I/O操作。(在每個服務器上部署多個OSD進程,一塊磁盤默認對應部署一個OSD進程。在SSD卡作為主存的時候,可以部署多個OSD進程進行管理,充分發揮SSD卡的性能。)

部署方式:

  • 融合部署:
    • 指將VBS和OSD部署在同一台服務器中
    • 虛擬化應用推薦采用融合部署的方式部署
  • 分離部署:
    • 指的是將VBS和OSD分別部署在不同的服務器中
    • 高性能數據庫應用則推薦采用分離部署的方式

FusionStorage 災備方案

備份方案

  • 雲資源池下:全量快照、增量快照
  • 數據庫場景:NBU等通用備份軟件

容災方案

  • 雲資源池下:華為配套的容災軟件UltraVR
  • 數據庫場景:DataGuard/GoldenGate等容災軟件

FusionStorage 原理及功能特性

基礎概念(DHT、副本)

DHT: Distributed Hash Table,FusionStorage中指數據路由算法

Partition:代表了一塊數據分區,DHT環上的固定Hash段代表的數據區

Key-Value:底層磁盤上的數據組織成Key-Value的形式,每個Value代表一個塊存儲空間

Volume:應用卷,代表了應用看到的一個LBA連續編址

副本是由OSD產生的,OSD之間的關系互為主備。

資源池:FusionStorage中一組分區構成的存儲池,對應到DHT環。
Volume:應用卷,代表了應用看到的一個LBA連續編址。

系統自動將每個卷的數據塊打散存儲在不同服務器的不同硬盤上,冷熱不均的數據會均勻分布在不同的服務器上,不會出現集中的熱點。

數據副本:FusionStorage采用數據多副本備份機制來保證數據的可靠性,即同一份數據可以復制保存為2~3個副本。

  • FusionStorage針對系統中的每一個卷,默認按照1MB進行分片,分片后的數據按照DHT算法保存到存儲集群的節點上。

  • 對於上圖Server1的磁盤Disk1上的數據塊P1,它的數據備份為服務器Server2的磁盤Disk2上的P1',P1和P1'構成了同一個數據塊的兩個副本。(當P1所在的硬盤故障時,P1'可以繼續提供存儲服務)

  • 數據分片分配算法保證了主備副本在不同服務器和不同硬盤上的均勻分布。

  • 擴容節點或者故障減容節點時,數據恢復重建算法保證了重建后系統中各節點負載的均衡性。

數據路由原理

一個分布式哈希表(DHT)對應一個存儲池(至少12塊硬盤)

VBS寫到主OSD,再主OSD同步到備OSD,最后寫到硬盤

FusionStorage數據路由采取分層處理方式:

  • VBS通過計算確定數據存放在哪個服務器的哪塊硬盤上。
  • OSD通過計算確定數據存放在硬盤的具體位置。

數據路由的具體細節:

  • 系統初始化時,FusionStorage將哈希空間(0~2^32)划分為N等份,每1等份是1個分區(Partition),這N等份按照硬盤數量進行均分。例如:在二副本場景下,系統N默認為3600(三副本場景為51200),假設當前系統有36塊硬盤,則每塊硬盤承載100個分區。上述“分區-硬盤”的映射關系在系統初始化的時候會分配好,后續會隨着系統中硬盤數量的變化進行調整。該映射表所需要的空間很小,FusionStorage系統中的節點會在內存中保存該映射關系,用於進行快速路由。
  • FusionStorage會對每個LUN在邏輯上按照1MB大小進行切片,例如1GB的LUN則會被切成1024*1MB分片。當應用側訪問FusionStorage時,在SCSI命令中會帶上LUN ID和LBA ID以及讀寫的數據內容,OS轉發該消息到本節點的VBS模塊,VBS根據LUN ID和LBA ID組成一個key,該key會包含LBA ID對1MB的取整計算信息。通過DHT Hash計算出一個整數(范圍在0~2^32內),並落在指定的Partition中;根據內存中記錄的“分區-硬盤”映射關系確定具體硬盤,VBS將IO操作轉發到該硬盤所屬的OSD模塊。
  • 每個OSD(或者多個)會管理一個硬盤,系統初始化時,OSD會按照1MB為單位對硬盤進行分片管理,並在硬盤的元數據管理區域記錄每個1MB分片的分配信息。OSD接收到VBS發送的IO操作后,根據key查找該數據在硬盤上的具體分片信息,獲取數據后返回給VBS。從而完成整個數據路由的過程。
  • 舉例:如上圖,應用需要訪問LUN1+LBA1地址起始的4KB長度的數據,首先構造key=LUN1+LBA1/1MB,對該key進行hash計算得到哈希值,並對N取模,得到Partition號,根據內存中記錄的“分區-硬盤”映射表可得知數據歸屬的硬盤。

(構造key→對key進行hash→取模得分區號→尋找歸屬硬盤進行IO操作)

一致性Hash相關資料:
聊聊一致性哈希 - 知乎 (zhihu.com)

好剛: 7分鍾視頻詳解一致性hash 算法_嗶哩嗶哩 (゜-゜)つロ 干杯~-bilibili

LBA:Logic Block Address,用於尋址的邏輯塊地址

2^32(Bit) = 4294967296÷1024÷1024÷1024 = 4 294 967 296(Bit) = 4(GB)

FusionStorage 組件

VBS 模塊

  • VBM模塊負責完成卷和快照的管理功能:創建卷、掛載卷、卸載卷、查詢卷、刪除卷、創建快照、刪除快照、基於快照創建卷等

VBS在存儲接入側,負責:

  • 卷和快照的管理功能
  • IO的接入和處理

IO在VBS進程中需要經過三個模塊的處理,分別為SCSI、VBP、CLIENT:

  • SCSI模塊負責從內核(VSC.KO)中將IO引入VBS進程,SCSI模塊接收到的IO是標准SCSI協議格式的IO請求,通過SCSI四元組(host_id/channel_id/target_id/lun_id)和該IO在塊設備上的offset,讀寫的數據長度len唯一標識一個IO,SCSI模塊將收到的IO信息交給VBP(Virtual Block Process)模塊。
  • VBP內部將通過塊格式的IO轉換為FusionStorage內部Key-Value格式的IO下發給CLIENT,其中KEY的組成為:tree_id(4Byte)+block_no(4Byte)+branch_i(4Byte)+snap_id(2Byte),tree_id/branch_id/snap_id是FusionStorage內部對卷、快照的唯一標識;block_no是將卷按照1M的塊划分,本次IO落在哪一個1M塊上的編號。
  • IO請求到達CLIENT模塊后,Client根據KEY中的tree_id/branch_id進行hash計算,確定本次IO發給哪一個OSD進程處理確定后將IO發給對應的OSD處理。
  • OSD收取響應,然后逐層返回IO

卷和快照的通用屬性信息(如卷大小、卷名等)及卷和快照在DSware系統內部的一些私有屬性(如用於定位卷和快照數據在系統中存儲位置的tree_id/branch_id/snap_id)保存在DSware內部的一個私有邏輯卷中,該卷我們成為元數據卷。

VBP即將對應的SCSI數據信息轉化為FusionStorage能夠識別的描述信息。

OSD 模塊

一個物理磁盤對應一個OSD進程,負責:

  • 磁盤的管理
  • IO的復制
  • IO數據的Cache處理

OSD組件功能:

  • OSD:主備模式,MDC實施監控OSD的狀態,當指定Partition所在的主OSD故障時,存儲服務會實時自動切換到備OSD,保證了業務的連續性。
  • RSM:復制協議實現。
  • SNAP:實現卷與快照的IO功能、磁盤空間的管理。
  • CACHE:實現cache功能。
  • AIO:實現異步IO下發到底層SMIO模塊和通過調用SMIO接口來監控介質故障。
  • SMIO:下發到IO到實際的物理介質、監控物理介質故障、獲取磁盤信息。

每個OSD會管理一個硬盤,在系統初始化時,OSD會按照1MB為單位對硬盤進行分片管理。並在硬盤的元數據管理區域記錄每個1MB分片的分配信息。OSD接收到VBS發送的IO操作后,根據key查找該數據在硬盤上的具體分片信息,獲取數據后返回給VBS。從而完成整個數據路由的過程。對於寫請求,OSD根據分區-主磁盤-備磁盤1-備磁盤2映射表,通知各備OSD進行寫操作,主與備OSD都完成寫后返回VBS。

MDC 模塊

MDC(Metadata Controller)是一個高可靠集群,通過HA(High Availability)機制保證整個系統的高可用性和高可靠性:

  • 通過ZooKeeper集群,實現元數據(如Topology、OSD View、Partition View、VBS View等)的可靠保存。
  • 通過Partition分配算法,實現數據多份副本的RAID可靠性。
  • 通過與OSD、VBS間的消息交互,實現對OSD、VBS節點的狀態變化的獲取與通知。
  • 通過與Agent間的消息交互,實現系統的擴減容、狀態查詢、維護等。
  • 通過心跳檢測機制,實現對OSD、VBS的狀態監控。

Zookeeper(ZK)分布式服務框架主要用來解決分布式應用中經常遇到的,如:統一命名服務、狀態同步服務、集群管理、分布式應用配置項的管理等,ZK主要工作包括三項:

  • MDC主備管理: MDC采用一主兩備部署模式;在MDC模塊進程啟動后,各個MDC進程會向ZK注冊選主,先注冊的為主MDC;運行過程中,ZK記錄MDC主備信息,並通過心跳機制監控MDC主備健康狀況,一旦主MDC進程故障,會觸發MDC重新選主。
  • 數據存儲:在MDC運行過程中,會生成各種控制視圖信息,包括目標視圖、中間視圖、IO視圖信息等,這些信息的保存、更新、查詢、刪除操作都通過ZK提供的接口實現。
  • 數據同步:數據更新到主ZK,由主ZK自動同步到兩個備ZK,保證主備ZK數據實時同步。一旦ZK發生主備切換,業務不受影響。

在FusionStorage中,為保證系統可靠性,ZK采用一主兩倍部署模式,每個管理節點部署一個ZK進程,ZK主備管理由ZK內部機制保證

MDC進程與ZK進程采用C/S模式,TCP協議通信;MDC可以連接到任意一個ZK服務器,並且維持TCP連接。如果這個TCP連接中斷,MDC能夠順利切換到另一個ZK服務器。(ZK是MDC的服務端)

FusionStorage 視圖

  • IO View:partition主和osd節點的映射關系
  • Partition View:partition主備對應的osd關系,ioview是partition view的子集
  • MDC通過心跳感知OSD的狀態;OSD每秒上報給MDC特定的消息(比如:OSD容量等),當MDC連續在特定的時間內(當前系統為5s)沒有接收到OSD的心跳信息,則MDC認為該OSD已經出故障(比如:OSD進程消失或OSD跟MDC間網絡中斷等),MDC則會發送消息告知該OSD需要退出,MDC更新系統的OSD視圖並給每台OSD發送視圖變更通知,OSD根據新收到的視圖,來決定后續的操作對象
  • 多副本復制取決於MDC的視圖;兩副本情況下,當client發送一個寫請求到達該OSD的時候,該OSD將根據視圖的信息,將該寫請求復制一份到該Partition的備OSD。多副本情況下,則會復制發送多個寫請求到多個備OSD上

FusionStorage 組件交互關系

Disk向OSD提供塊服務、OSD向VBS提供對象存儲服務、VBS向OS提供塊服務

FusionStorage底層靠對象存儲實現,對外提供塊存儲服務

  • 系統啟動時,MDC與ZK互動決定主MDC。主MDC與其它MDC相互監控心跳,主MDC決定某MDC故障后接替者。其它MDC發現主MDC故障又與ZK互動升任主MDC
  • OSD啟動時向MDC查詢歸屬MDC,向歸屬MDC報告狀態,歸屬MDC把狀態變化發送給VBS。當歸屬MDC故障,主MDC指定一個MDC接管,最多兩個池歸屬同一個MDC
  • VBS啟動時查詢主MDC,向主MDC注冊(主MDC維護了一個活動VBS的列表,主MDC同步VBS列表到其它MDC,以便MDC能將OSD的狀態變化通知到VBS),向MDC確認自己是否為leader;VBS從主MDC獲取IO View,主VBS向OSD獲取元數據,其它VBS向主VBS獲取元數據
  • FusionStorage系統中會存在多個VBS進程,如果多個VBS同時操作元數據卷,會引起數據數被寫壞等問題。為避免該問題,FusionStorage系統對VBS引入了主備機制,只有主VBS可操作元數據卷,所有的備VBS不允許操作元數據卷,一套FusionStorage系統中只存在一個主VBS;VBS的主備角色由MDC進程確定,所有VBS通過和MDC間的心跳機制保證系統中不會出現雙主的情況。
  • 只有主VBS能夠操作元數據,所以備VBS收到的卷和快照管理類命令需要轉發到主VBS處理,對於掛載、卸載等流程,主VBS完成元數據的操作后,還需要將命令轉到目標VBS實現卷的掛載、卸載等操作。

FusionStorage 副本機制

數據副本: FusionStorage采用數據多副本備份機制來保證數據的可靠性,即同一份數據可以復制保存為2~3個副本。

  • FusionStorage針對系統中的每1個卷,默認按照1MB進行分片,分片后的數據按照DHT算法保存集群節點上。
  • 對於服務器Server1的 磁盤Disk1上的數據塊P1,它的數據備份為服務器Server2的磁盤Disk2上P1’,P1和P1’構成了同一個數據塊的兩個副本。例如,當P1所在的硬盤故障時,P1’可以繼續提供存儲服務。
  • 數據分片分配算法保證了主用副本和備用副本在不同服務器和不同硬盤上的均勻分布,換句話說,每塊硬盤上的主用副本和備副本數量是均勻的。
  • 擴容節點或者故障減容節點時,數據恢復重建算法保證了重建后系統中各節點負載的均衡性。
  • 當Server3出現故障,丟失所有Disk3和Disk6上的數據塊,但是數據不會丟失。

FusionStorage 緩存機制

寫Cache流程

  • OSD在受到VBS發送的寫IO操作時,會將寫IO緩存在SSD Cache后完成本節點寫操作。

  • OSD會周期將緩存在SSD Cache中的寫IO數據批量寫入到硬盤,寫Cache有一個水位值,未到刷盤周期超過設定水位值也會將Cache中數據寫入到硬盤中。

  • FusionStorage支持大塊直通,按缺省配置大於256KB的塊直接落盤不寫Cache,這個配置可以修改

    FusionStorage支持將服務器部分內存用作讀緩存,NVDIMM和SSD用作寫緩存。

讀Cache流程

  • FusionStorage的讀緩存采用分層機制,第一層為內存cache,內存cache采用LRU機制緩存數據
  • 第二層為SSD cache,SSD cache采用熱點讀機制,系統會統計每個讀取的數據,並統計熱點訪問因子,當達到閾值時,系統會自動緩存數據到SSD中,同時會將長時間未被訪問的數據移出SSD
  • FusionStorage預讀機制,統計讀數據的相關性,讀取某塊數據時自動將相關性高的塊讀出並緩存到SSD中

LRU(Least recently used,最近最少使用)算法根據數據的歷史訪問記錄來進行淘汰數據,其核心思想是“如果數據最近被訪問過,那么將來被訪問的幾率也更高”。

  • OSD收到VBS發送的讀IO操作的步驟處理:
    • Step 1:從內存“讀cache”中查找是否存在所需IO數據,存在則直接返回,並調整該IO數據到“讀cache”LRU隊首,否則執行Step 2
    • Step 2:從SSD的“讀cache”中查找是否存在所需IO數據,存在則直接返回,並增加該IO數據的熱點訪問因子,否則執行Step 3
    • Step 3:從SSD的“寫cache”中查找是否存在所需IO數據,存在則直接返回,並增加該IO數據的熱點訪問因子;如果熱點訪問因子達到閾值,則會被緩存在SSD的“讀cache”中。如果不存在,執行Step 4
    • Step 4:從硬盤中查找到所需IO數據並返回,同時增加該IO數據的熱點訪問因子,如果熱點訪問因子達到閾值,則會被緩存在SSD的“讀cache”中
  • 讀修復:在讀數據失敗時,系統會判斷錯誤類型,如果是磁盤扇區讀取錯誤,系統會自動從其他節點保存的副本讀取數據,然后重新寫入該副本數據到硬盤扇區錯誤的節點,從而保證數據副本總數不減少和副本間的數據一致性。

FusionStorage 分布式Cache

  • FusionStorage集群內各服務器節點的緩存和帶寬都均勻分布在各個服務器節點上,不存在獨立存儲系統中大量磁盤共享計算、存儲設備有限帶寬的問題。
  • FusionStorage支持將服務器部分內存用作讀緩存,NVDIMM和SSD用作寫緩存,數據緩存均勻分布到各個節點上。
  • FusionStorage支持SSD用作數據緩存,除具備通常的寫緩存外,增加熱點數據統計和緩存功能,加上其大容量的優勢,進一步提升了系統性能。

FusionStorage SSD存儲與IB網絡

  • SSD存儲介質:
    • 通過在存儲節點上配置SSD盤或PCI-E SSD卡,FusionStorage可以將存儲節點上的SSD組成1個虛擬存儲資源池,為應用提供高性能讀寫能力
  • Infiniband高速網絡:
    • 56Gbps FDR InfiniBand,節點間超高速互聯
    • 標准成熟多級胖樹組網,平滑容量擴容
    • 近似無阻塞通信網絡,數據交換無瓶頸
    • 納秒級通信時延,計算存儲信息及時傳遞
    • 無損網絡QOS,數據傳送無丟失
    • 主備端口多平面通信,提高傳輸可靠性

FusionStorage 掉電保護

  • 為了避免服務器掉電丟失數據的情況,FusionStorage使用保電介質來保存元數據和緩存數據。
  • FusionStorage支持的保電介質為NVDIMM內存條或SSD。程序運行過程中會把元數據和緩存數據寫入保電介質中,節點異常掉電並重啟后,系統自動恢復。

保電介質:NVDIMM內存、PCIe SSD卡、SSD硬盤

FusionStorage IO流程分析

讀IO流程

  1. APP下發讀IO請求到OS,OS轉發該IO請求到本服務器的VBS模塊;VBS根據讀IO信息中的LUN和LBA信息,通過數據路由機制確定數據所在的Primary OSD;如果此時Primary OSD故障,VBS會選擇secondary OSD讀取所需數據

  2. Primary OSD接收到讀IO請求后,按照Cache機制中的“Read cache機制”獲取到讀IO所需數據,並返回讀IO成功給VBS

寫IO流程

  1. APP下發寫IO請求到OS,OS轉發該IO請求到本服務器的VBS模塊;VBS根據寫IO信息中的LUN和LBA信息,通過數據路由機制確定數據所在的Primary OSD
  2. Primary OSD接收到寫IO請求后,同時以同步方式寫入到本服務器SSD cache以及數據副本所在其他服務器的secondary OSD,secondary OSD也會同步寫入本服務器SSD cache。Primary OSD接收到兩個都寫成功后,返回寫IO成功給VBS;同時,SSD cache中的數據會異步刷入到硬盤
  3. VBS返回寫IO成功,如果是3副本場景,primary OSD會同時同步寫IO操作到secondary OSD和third OSD

FusionStorage 主要功能特性

總體框架

SCSI/iSCSI塊接口

當主機能夠支持安裝VBS時,可以通過SCSI和iSCSI方式訪問;
當主機不能夠支持安裝VBS時,只能通過iSCSI訪問。

SCSI與iSCSI區別:

  • 應用場景:看主機OS是否能安裝VBS(FSA是一個Linux的rpm包),主機OS能支持安裝VBS的,一般使用SCSI,比如:KVM、CNA等;主機OS閉源不支持安裝VBS的,只能使用iSCSI,比如:ESXi、Windows等。
  • 資源損耗:iSCSI有封裝和解封裝的過程,需要消耗主機的資源;SCSI直接走特殊總線。
  • 傳輸介質:SCSI通過總線傳輸,iSCSI通過網絡傳輸。

快照功能

  • FusionStorage快照機制,將用戶卷數據在某個時間點的狀態保存下來,可用作導出數據、恢復數據之用
  • FusionStorage快照數據在存儲時采用ROW(Redirect-On-Write)機制,快照不會引起原卷性能下降
  • 無限次快照:快照元數據分布式存儲,水平擴展,無集中式瓶頸,理論上可支持無限次快照
  • 卷恢復速度快:無需數據搬遷,從快照恢復卷1S內完成(傳統SAN在幾小時級別)

鏈接克隆

  • FusionStorage支持一個卷快照創建多個克隆卷,對克隆卷修改不影響原始快照和其它克隆卷
  • 克隆卷繼承普通卷所有功能:克隆卷可支持創建快照、從快照恢復及作為母卷再次克隆操作
  • 支持批量進行虛擬機卷部署,在1秒時間內創建上百個虛擬機卷
  • 支持1:2048的鏈接克隆比,提升存儲空間利用率

跨資源池卷冷遷移

遷移過程中,源卷不能有寫操作,故叫冷遷移

整體流程:

  1. 創建目標卷
  2. 卷數據復制
  3. 刪除源卷
  4. 目標卷改名
  5. 完成遷移

應用場景:

  1. 資源池之間的容量平衡,例如高負載池遷移至低負載
  2. 卷在不同性能的資源池之間遷移,例如低性能向高性能池遷移

FusionStorage 部署方式

融合部署

  1. 將VBS、OSD部署在同一台服務器中
  2. 虛擬化應用推薦融合部署

分離部署

  1. 將VBS、OSD分別部署在不同的服務器中
  2. 高性能數據庫應用則推薦采用分離部署的方式

FusionStorage 組網方案

網絡平面

  • 管理平面:實現FSM與FSA之間的通信。

  • 業務平面:實現VM或者主機與VBS之間的通信。

  • 存儲平面:實現MDC/VBS/OSD之間的交互。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM