1.Hadoop概述
在Google三篇大數據論文發表之后,Cloudera公司在這幾篇論文的基礎上,開發出了現在的Hadoop。但Hadoop開發出來也並非一帆風順的,Hadoop1.0版本有諸多局限。在后續的不斷實踐之中,Hadoop2.0橫空出世,而后Hadoop2.0逐漸成為大數據中的主流。那么Hadoop1.0究竟存在哪些缺陷,在它升級到Hadoop2.0的時候又做出了怎樣的調整,最終使得Hadoop2.0成為大數據的基石呢?
2.Hadoop1.0
首先我們來看hadoop1.0的整體結構。在hadoop1.0中有兩個模塊,一個是分布式文件系統HDFS(Hadoop Distrbuted File System)。另一個則是分布式計算框架MapReduce。我們分別來看看這兩個模塊的架構吧。
2.1HDFS1.0
對HDFS來說,其主要的運行架構則是master-slave架構,即主從架構。其中呢,master主節點稱之為Namenode節點,而slave從節點稱為DataNode節點。
這個NameNode的職責是什么呢?
- NameNode管理着整個文件系統,負責接收用戶的操作請求
- NameNode管理着整個文件系統的目錄結構,所謂目錄結構類似於我們Windows操作系統的體系結構
- NameNode管理着整個文件系統的元數據信息,所謂元數據信息指定是除了數據本身之外涉及到文件自身的相關信息
- NameNode保管着文件與block塊序列之間的對應關系以及block塊與DataNode節點之間的對應關系
在hadoop1.0中,namenode有且只有一個,雖然可以通過SecondaryNameNode與NameNode進行數據同步備份,但是總會存在一定的延時,如果NameNode掛掉,但是如果有部份數據還沒有同步到SecondaryNameNode上,還是可能會存在着數據丟失的問題。
值得一提的是,在HDFS中,我們真實的數據是由DataNode來負責來存儲的,但是數據具體被存儲到了哪個DataNode節點等元數據信息則是由我們的NameNode來存儲的。
這種架構實現的好處的簡單,但其局限同樣明顯:
- 單點故障問題:因為NameNode含有我們用戶存儲文件的全部的元數據信息,當我們的NameNode無法在內存中加載全部元數據信息的時候,集群的壽命就到頭了。
- 拓展性問題:NameNode在內存中存儲了整個分布式文件系統中的元數據信息,並且NameNode只能有一台機器,無法拓展。單台機器的NameNode必然有到達極限的地方。
- 性能問題:當HDFS中存儲大量的小文件時,會使NameNode的內存壓力增加。
- 隔離性問題:單個namenode難以提供隔離性,即:某個用戶提交的負載很大的job會減慢其他用戶的job。
2.2MapReduce
對MapReduce來說,同樣時一個主從結構,是由一個JobTracker(主)和多個TaskTracker(從)組成。
而JobTracker在hadoop1.0的MapReduce中做了很多事情,可以說當爹又當媽。
- 負責接收client提交給的計算任務。
- 負責將接收的計算任務分配給各個的TaskTracker進行執行。
- 通過heartbeat(心跳)來管理TaskTracker機器的情況,同時監控任務task的執行狀況。
這個架構的缺陷:
- 單點故障:依舊是單點故障問題,如果JobTracker掛掉了會導致MapReduce作業無法執行。
- 資源浪費:JobTracker完成了太多的任務,造成了過多的資源消耗,當map-reduce job非常多的時候,會造成很大的內存開銷,潛在來說,也增加了JobTracker失效的風險,這也是業界普遍總結出老Hadoop的Map-Reduce只能支持4000節點主機的上限;
- 只支持簡單的MapReduce編程模型:要使用Hadoop進行編程的話只能使用基礎的MapReduce,而無法使用諸如Spark這些計算模型。並且它也不支持流式計算和實時計算。
3.Hadoop2.0
Hadoop2.0比起Hadoop1.0來說,最大的改進是加入了資源調度框架Yarn,我們依舊分為HDFS和Yarn/MapReduce2.0兩部分來講述Hadoop的改進。
3.1HDFS2.0
針對Hadoop1.0中NameNode制約HDFS的擴展性問題,提出HDFSFederation以及高可用HA。此時NameNode間相互獨立,也就是說它們之間不需要相互協調。且多個NameNode分管不同的目錄進而實現訪問隔離和橫向擴展。
這樣NameNode的可拓展性自然而然可用增加,據統計Hadoop2.0中最多可以達到10000個節點同時運行,並且這樣的架構改進也解決了NameNode單點故障問題。
再來說說高可用(HA),HA主要指的是可以同時啟動2個NameNode。其中一個處於工作(Active)狀態,另一個處於隨時待命(Standby)狀態。這樣,當一個NameNode所在的服務器宕機時,可以在數據不丟失的情況下,手工或者自動切換到另一個NameNode提供服務。
3.2Yarn/MapReduce2
針對Hadoop1.0中MR的不足,引入了Yarn框架。Yarn框架中將JobTracker資源分配和作業控制分開,分為Resource Manager(RM)以及Application Master(AM)。
而Yarn框架作為一個通用的資源調度和管理模塊,同時支持多種其他的編程模型,比如最出名的Spark。
Yarn的主要三個組件如下:
-
Resource Manager:ResourceManager包含兩個主要的組件:定時調用器(Scheduler)以及應用管理器(ApplicationManager)。
-
定時調度器(Scheduler):定時調度器負責向應用程序分配資源,它不做監控以及應用程序的狀態跟蹤,並且它不保證會重啟由於應用程序本身或硬件出錯而執行失敗的應用程序。
-
應用管理器(ApplicationManager):應用程序管理器負責接收新任務,協調並提供在ApplicationMaster容器失敗時的重啟功能。
-
-
Application Master:每個應用程序的ApplicationMaster負責從Scheduler申請資源,以及跟蹤這些資源的使用情況以及任務進度的監控。
-
Node Manager:NodeManager是ResourceManager在每台機器的上代理,負責容器的管理,並監控他們的資源使用情況(cpu,內存,磁盤及網絡等),以及向ResourceManager/Scheduler提供這些資源使用報告。
關於Hadoop1.0和2.0的一點點感悟
沒有什么是一開始就完美的,當下最流行的Hadoop也一樣。從上面說的,我們可以知道Hadoop1.0是比較簡陋的,這樣做的目的就是為了易於實現。Hadoop這樣做也契合了敏捷開發的原則,也可以說契合產品經理口中的最小可行性產品(MVP),就是先實現一個簡單些,但核心功能齊全的版本出來,讓市場對其進行檢驗,而有了結果之后再進行拓展升級。
在當時那種許多公司都苦惱於沒有自己的大數據環境的情況下,Hadoop一炮而紅。這時候再根據市場,也就是開源社區給出的反饋,不斷迭代,更新升級。最終成為大數群山中最為堅固的一座山峰。
我們在平時的產品開發中應該也要像Hadoop學習,先做出最小可行性產品出來,再在后面進行更新升級,不斷完善。當然這對一些完美主義者來說,可能會讓他感到比較痛苦。
你看,世間的事多是相通,技術的發展過程其實也暗合產品之道。有時候我們或許可以跳出技術之外,思考它背后產品的邏輯,這其中又有哪些是我們可以學習的,這些同樣是珍貴的寶藏,所謂他山之石,可以攻玉,莫過於此~~
以上~
推薦閱讀:
從分治算法到 MapReduce
Actor並發編程模型淺析
大數據存儲的進化史 --從 RAID 到 Hadoop Hdfs
一個故事告訴你什么才是好的程序員