hadoop分布式系統架構詳解


hadoop 簡單來說就是用 java寫的分布式 ,處理大數據的框架,主要思想是 “分組合並” 思想。

分組:比如 有一個大型數據,那么他就會將這個數據按照算法分成多份,每份存儲在 從屬主機上,並且在從屬主機上進行計算,主節點主要負責Hadoop兩個關鍵功能模塊HDFS、Map Reduce的監督。
        合並:將每個機器上的計算結果合並起來 再在一台機器上計算,得到最終結果。這就是mapreduce 算法。

        Hadoop主要的任務部署分為3個部分,分別是:Client機器,主節點和從節點。主節點主要負責Hadoop兩個關鍵功能模塊HDFS、Map Reduce的監督。當Job Tracker使用Map Reduce進行監控和調度數據的並行處理時,名稱節點則負責HDFS監視和調度。從節點負責了機器運行的絕大部分,擔當所有數據儲存和指令計算的苦差。每個從節點既扮演者數據節點的角色又沖當與他們主節點通信的守護進程。守護進程隸屬於Job Tracker,數據節點在歸屬於名稱節點。

1、Hadoop的整體框架 

Hadoop由HDFS、MapReduce、HBase、Hive和ZooKeeper等成員組成,其中最基礎最重要元素為底層用於存儲集群中所有存儲節點文件的文件系統HDFS(Hadoop Distributed File System)來執行MapReduce程序的MapReduce引擎。

 

(1)Pig是一個基於Hadoop的大規模數據分析平台,Pig為復雜的海量數據並行計算提供了一個簡單的操作和編程接口; 

(2)Hive是基於Hadoop的一個工具,提供完整的SQL查詢,可以將sql語句轉換為MapReduce任務進行運行; 

(3)ZooKeeper:高效的,可拓展的協調系統,存儲和協調關鍵共享狀態; 

(4)HBase是一個開源的,基於列存儲模型的分布式數據庫; 

(5)HDFS是一個分布式文件系統,有着高容錯性的特點,適合那些超大數據集的應用程序; 

(6)MapReduce是一種編程模型,用於大規模數據集(大於1TB)的並行運算。 
下圖是一個典型的Hadoop集群的部署結構: 

 

接着給出Hadoop各組件依賴共存關系: 

 

2、Hadoop的核心設計 

(1)HDFS 

HDFS是一個高度容錯性的分布式文件系統,可以被廣泛的部署於廉價的PC上。它以流式訪問模式訪問應用程序的數據,這大大提高了整個系統的數據吞吐量,因而非常適合用於具有超大數據集的應用程序中。 

HDFS的架構如圖所示。HDFS架構采用主從架構(master/slave)。一個典型的HDFS集群包含一個NameNode節點和多個DataNode節點。NameNode節點負責整個HDFS文件系統中的文件的元數據的保管和管理,集群中通常只有一台機器上運行NameNode實例,DataNode節點保存文件中的數據,集群中的機器分別運行一個DataNode實例。在HDFS中,NameNode節點被稱為名稱節點,DataNode節點被稱為數據節點。DataNode節點通過心跳機制與NameNode節點進行定時的通信。

 

 

•NameNode 

可以看作是分布式文件系統中的管理者,存儲文件系統的meta-data,主要負責管理文件系統的命名空間,集群配置信息,存儲塊的復制。

•DataNode 

是文件存儲的基本單元。它存儲文件塊在本地文件系統中,保存了文件塊的meta-data,同時周期性的發送所有存在的文件塊的報告給NameNode。

•Client 

就是需要獲取分布式文件系統文件的應用程序。

以下來說明HDFS如何進行文件的讀寫操作: 

 

 

文件寫入: 

1. Client向NameNode發起文件寫入的請求 

2. NameNode根據文件大小和文件塊配置情況,返回給Client它所管理部分DataNode的信息。 

3. Client將文件划分為多個文件塊,根據DataNode的地址信息,按順序寫入到每一個DataNode塊中。

 

文件讀取: 

1. Client向NameNode發起文件讀取的請求 

2. NameNode返回文件存儲的DataNode的信息。 

3. Client讀取文件信息。

(2)MapReduce

MapReduce是一種編程模型,用於大規模數據集的並行運算。Map(映射)和Reduce(化簡),采用分而治之思想,先把任務分發到集群多個節點上,並行計算,然后再把計算結果合並,從而得到最終計算結果。多節點計算,所涉及的任務調度、負載均衡、容錯處理等,都由MapReduce框架完成,不需要編程人員關心這些內容。 
下圖是MapReduce的處理過程:

 

用戶提交任務給JobTracer,JobTracer把對應的用戶程序中的Map操作和Reduce操作映射至TaskTracer節點中;輸入模塊負責把輸入數據分成小數據塊,然后把它們傳給Map節點;Map節點得到每一個key/value對,處理后產生一個或多個key/value對,然后寫入文件;Reduce節點獲取臨時文件中的數據,對帶有相同key的數據進行迭代計算,然后把終結果寫入文件。

 如果這樣解釋還是太抽象,可以通過下面一個具體的處理過程來理解:(WordCount實例) 

 

 

Hadoop的核心是MapReduce,而MapReduce的核心又在於map和reduce函數。它們是交給用戶實現的,這兩個函數定義了任務本身。

map函數:接受一個鍵值對(key-value pair)(例如上圖中的Splitting結果),產生一組中間鍵值對(例如上圖中Mapping后的結果)。Map/Reduce框架會將map函數產生的中間鍵值對里鍵相同的值傳遞給一個reduce函數。 
reduce函數:接受一個鍵,以及相關的一組值(例如上圖中Shuffling后的結果),將這組值進行合並產生一組規模更小的值(通常只有一個或零個值)(例如上圖中Reduce后的結果)

但是,Map/Reduce並不是萬能的,適用於Map/Reduce計算有先提條件: 

(1)待處理的數據集可以分解成許多小的數據集; 

(2)而且每一個小數據集都可以完全並行地進行處理; 

若不滿足以上兩條中的任意一條,則不適合適用Map/Reduce模式。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM