SAN : STORAGE AREA NETWORK 存儲區域網絡
NAS : NETWORK ATTACHED STORAGE 網絡附加存儲
NAS不一定是盤陣,一台普通的主機就可以做出NAS,只要它自己有磁盤和文件系統,而且對外提供訪問其文件系統的接口(如NFS,CIFS等),它就是一台NAS。常用的windows文件共享服務器就是利用CIFS作為調用接口協議的NAS設備。一般來說NAS其實就是處於以太網上的一台利用NFS,CIFS等網絡文件系統的共享服務器。至於將來會不會有FC網絡上的文件提供者,也就是FC網絡上的NAS,就等日后再說了。
注解:NFS(NETWORK FILE SYSTEM) 適用於LINUX&UNIX系統
CIFS(Common Internet FILE SYSTEM) 適用於windows系統
SAN\NAS的區別:
可以這樣來比作:SAN是一個網絡上的磁盤;NAS是一個網絡上的文件系統。其實根據SAN的定義,可知SAN其實是指一個網絡,但是這個網絡里包含着各種各樣的元素,主機、適配器、網絡交換機、磁盤陣列前端、盤陣后端、磁盤等。長時間以來,人們都習慣性的用SAN來特指FC,特指遠端的磁盤。那么,一旦設計出了一種基於FC網絡的NAS,而此時的SAN應該怎樣稱呼?所以,在說兩者的區別時,用了一個比方,即把FC網絡上的磁盤叫做SAN,把以太網絡上的文件系統稱為NAS,我們可以這樣簡單來理解。
普通台式機也可以充當NAS。NAS必須具備的物理條件有兩條,第一,不管用什么方式,NAS必須可以訪問卷或者物理磁盤;第二,NAS必須具有接入以太網的能力,也就是必須具有以太網卡。
SAN\NAS的性能對比:
1、 SAN快還是NAS快
首先,看下SAN與NAS的路徑圖,如下:
顯然,NAS架構的路徑在虛擬目錄層和文件系統層通信的時候,用以太網和TCP/IP協議代替了內存,這樣做不但增加了大量的CPU指令周期(TCP/IP邏輯和以太網卡驅動程序),而且使用了低俗傳輸介質(內存速度要比以太網快得多)。而SAN方式下,路徑中比NAS方式多了一次FC訪問過程,但是FC的邏輯大部分都由適配卡上的硬件完成,增加不了多少CPU的開銷,而且FC訪問的速度比以太網高,所以我們很容易得出結論,如果后端磁盤沒有瓶頸,那么除非NAS使用快於內存的網絡方式與主機通信,否則其速度永遠無法超越SAN架構。但是如果后端磁盤有瓶頸,那么NAS用網絡代替內存的方法產生的性能降低就可以忽略。比如,在大量隨記小塊I/O、緩存命中率極低的環境下,后端磁盤系統尋到瓶頸達到最大,此時前端的I/O指令都會處於等待狀態,所以就算路徑首段速度再快,也無濟於事。此時,NAS系統不但不比SAN慢,而且由於其優化的並發I/O設計和基於文件訪問而不是簇塊訪問的特性,反而可能比SAN性能高。
既然NAS一般情況下不比SAN快,為何要讓NAS誕生呢?既然NAS不如SAN快,那么為何還要存在呢?具體原因如下:
l NAS的成本比SAN低很多。前端只使用以太網接口即可,FC適配卡以及交換機的成本相對以太網卡和交換機來說非常高的。
l NAS可以解決主機服務器上的CPU和內存資源。NAS適用於cpu密集的應用環境。
l NAS由於利用了以太網,所以可擴展性很強,且容易部署。
l NAS設備一般都提供多種協議訪問數據,而SAN只能使用SCSI協議訪問。
l NAS可以在一台盤陣上實現多台客戶端的共享訪問,包括同時訪問某個目錄或文件。而SAN方式下,除非所有的客戶端都安裝了專門的集群管理軟件,否則不能將某個lun共享,強制共享會損壞數據。
l 經過特別優化的NAS系統, 可以同時並發處理大量客戶端的請求,提供比SAN方式更方便的訪問方法。
l 多台主機可以同時掛接NFS上的目錄,那么相當於減少了整個系統中文件系統的處理流程,由原來的多個並行處理轉化成了NFS上的單一實例,簡化了系統冗余度。
2、 SAN好還是NAS好
關於IO密集和CPU密集說明如下。
l CPU密集:程序內部邏輯復雜,磁盤訪問量不高。
l IO密集:程序內部邏輯不復雜,耗費CPU不多,但隨時存取硬盤上的數據。
l IO和CPU都密集:不適合單機,必須組成集群。
顯然,NAS對於大塊順序IO密集的環境,要比SAN慢一大截,原因是經過大量IO累積之后,總體差別就顯出來了。不過,如果要用10G以太網,無疑要選用NAS,因為底層鏈路的速度畢竟是目前NAS的根本瓶頸。此外,如果是高並發隨機小塊I/O環境或者共享訪問文件的環境,NAS會表現出很強的相對性能。如果SAN主機上的文件系統碎片比較多,那么讀寫某個文件時便會產生隨機小塊IO,而NAS自身文件系統會有很多優化設計,碎片相對較少。CPU密集型的應考慮使用NAS。
本文要介紹的是SAN (Storage Attached Network),即存儲區域網絡。為什么寫NAS就不得不提到SAN呢?原因之一是它們的名字有69關系,容易混淆;之二是NAS和SAN既競爭又合作,很多高端NAS的后端存儲就是SAN。NAS和SAN的整合也是存儲設備的發展趨勢,比如EMC的新產品VNX系列。右圖展示了一台NAS的邏輯結構:雙虛線框表示一台NAS。它通過Fibre Channel從后端SAN獲得存儲空間,創建文件系統后,再通過以太網共享給服務器。SAN提供的存儲單位是LUN,屬於block級別的。經過NAS創建成文件系統后,就變成文件級別的了。
如果上邊的邏輯圖還不夠清楚,可以看看下面的物理連接。NAS通過FC Switch連到SAN上,應用服務器再通過Ethernet Switch連到NAS上。同時SAN也直接提供block級別的存儲給應用服務器。
今天我們來看一下存儲的分類,根據服務器類型分為:封閉系統的存儲和開放系統的存儲,封閉系統主要指大型機,開放系統指基於Windows、UNIX、Linux等操作系統的服務器;開放系統的存儲分為:內置存儲和外掛存儲;外掛存儲根據連接的方式分為:直連式存儲(Direct-Attached Storage,簡稱DAS)和網絡化存儲(Fabric-Attached Storage,簡稱FAS);網絡化存儲根據傳輸協議又分為:網絡接入存儲(Network-Attached Storage,簡稱NAS)和存儲區域網絡(Storage Area Network,簡稱SAN)。
是不是看着有點亂,那我們對照下面的圖片來看一下,這樣也許就會清晰多了。
DAS存儲
DAS存儲在我們生活中是非常常見的,尤其是在中小企業應用中,DAS是最主要的應用模式,存儲系統被直連到應用的服務器中,在中小企業中,許多的數據應用是必須安裝在直連的DAS存儲器上。
DAS存儲更多的依賴服務器主機操作系統進行數據的IO讀寫和存儲維護管理,數據備份和恢復要求占用服務器主機資源(包括CPU、系統IO等),數據流需要回流主機再到服務器連接着的磁帶機(庫),數據備份通常占用服務器主機資源20-30%,因此許多企業用戶的日常數據備份常常在深夜或業務系統不繁忙時進行,以免影響正常業務系統的運行。直連式存儲的數據量越大,備份和恢復的時間就越長,對服務器硬件的依賴性和影響就越大。
直連式存儲與服務器主機之間的連接通道通常采用SCSI連接,隨着服務器CPU的處理能力越來越強,存儲硬盤空間越來越大,陣列的硬盤數量越來越多,SCSI通道將會成為IO瓶頸;服務器主機SCSI ID資源有限,能夠建立的SCSI通道連接有限。
無論直連式存儲還是服務器主機的擴展,從一台服務器擴展為多台服務器組成的群集(Cluster),或存儲陣列容量的擴展,都會造成業務系統的停機,從而給企業帶來經濟損失,對於銀行、電信、傳媒等行業7×24小時服務的關鍵業務系統,這是不可接受的。並且直連式存儲或服務器主機的升級擴展,只能由原設備廠商提供,往往受原設備廠商限制。
NAS存儲
NAS存儲也通常被稱為附加存儲,顧名思義,就是存儲設備通過標准的網絡拓撲結構(例如以太網)添加到一群計算機上。NAS是文件級的存儲方法,它的重點在於幫助工作組和部門級機構解決迅速增加存儲容量的需求。如今用戶采用NAS較多的功能是用來文檔共享、圖片共享、電影共享等等,而且隨着雲計算的發展,一些NAS廠商也推出了雲存儲功能,大大方便了企業和個人用戶的使用。
NAS產品是真正即插即用的產品。NAS設備一般支持多計算機平台,用戶通過網絡支持協議可進入相同的文檔,因而NAS設備無需改造即可用於混合Unix/Windows NT局域網內,同時NAS的應用非常靈活。
但NAS又一個關鍵性問題,即備份過程中的帶寬消耗。與將備份數據流從LAN中轉移出去的存儲區域網(SAN)不同,NAS仍使用網絡進行備份和恢復。NAS 的一個缺點是它將存儲事務由並行SCSI連接轉移到了網絡上。這就是說LAN除了必須處理正常的最終用戶傳輸流外,還必須處理包括備份操作的存儲磁盤請求。
SAN存儲
存儲區域網絡,從名字上我們也可以看出,這個是通過光纖通道交換機連接存儲陣列和服務器主機,最后成為一個專用的存儲網絡。SAN經過十多年歷史的發展,已經相當成熟,成為業界的事實標准(但各個廠商的光纖交換技術不完全相同,其服務器和SAN存儲有兼容性的要求)。
SAN提供了一種與現有LAN連接的簡易方法,並且通過同一物理通道支持廣泛使用的SCSI和IP協議。SAN不受現今主流的、基於SCSI存儲結構的布局限制。特別重要的是,隨着存儲容量的爆炸性增長,SAN允許企業獨立地增加它們的存儲容量。SAN的結構允許任何服務器連接到任何存儲陣列,這樣不管數據置放在那里,服務器都可直接存取所需的數據。因為采用了光纖接口,SAN還具有更高的帶寬。
因為SAN解決方案是從基本功能剝離出存儲功能,所以運行備份操作就無需考慮它們對網絡總體性能的影響。SAN方案也使得管理及集中控制實現簡化,特別是對於全部存儲設備都集群在一起的時候。最后一點,光纖接口提供了10公里的連接長度,這使得實現物理上分離的、不在機房的存儲變得非常容易。
總結:最后概括一下就是,DAS存儲一般應用在中小企業,與計算機采用直連方式,NAS存儲則通過以太網添加到計算機上,SAN存儲則使用FC接口,提供性能更加的存儲。NAS與NAS的主要區別體現在操作系統在什么位置,如下圖所示。
如今,隨着移動計算時代的來臨,更多的非結構化數據產生,這對NAS和SAN都是一個挑戰,NAS+SAN將是未來主要的存儲解決方案,也就是目前比較熱門的統一存儲。既然是一個集中化的磁盤陣列,那么就支持主機系統通過IP網絡進行文件級別的數據訪問,或通過光纖協議在SAN網絡進行塊級別的數據訪問。同樣,iSCSI亦是一種非常通用的IP協議,只是其提供塊級別的數據訪問。這種磁盤陣列配置多端口的存儲控制器和一個管理接口,允許存儲管理員按需創建存儲池或空間,並將其提供給不同訪問類型的主機系統。
統一存儲系統:前端主機接口可支持FC 8Gb、iSCSI 1Gb和iSCSI 10Gb,后端具備SAS 6Gb硬盤擴展接口,可支持SAS、SATA硬盤及SSD固態硬盤具備極佳的擴展能力。實現FC SAN與IP SAN、各類存儲介質的完美融合,有效整合用戶現有存儲網絡架構,實現高性能SAN網絡的統一部署和集中管理,以適應業務和應用變化的動態需求。主機接口及硬盤接口均采用模塊化設計,更換主機接口或硬盤擴展接口,無須更換固件,可大大簡化升級維護的難度和工作量。
注:由於時間有限,所以更多的是攢一些網上的資料。也是對自己的一種知識鞏固吧。希望對大家有所幫助,有好建議可以多提提。
關於NAS和SAN的區別,可以列出很多來。比如帶寬大小,距離長短,共享優劣等等。幾乎所有區別都是由兩個因素衍生出來的。一個是FC與Ethernet,另一個是block與file system。簡而言之,如果用戶需要通過FC訪問block,就用SAN;如果需要通過Ethernet訪問file system,就用NAS。