高可用Hadoop平台-Ganglia安裝部署


1.概述

  最近,有朋友私密我,Hadoop有什么好的監控工具,其實,Hadoop的監控工具還是蠻多的。今天給大家分享一個老牌監控工具Ganglia,這個在企業用的也算是比較多的,Hadoop對它的兼容也很好,不過就是監控界面就不是很美觀。下次給大家介紹另一款工具——Hue,這個界面官方稱為Hadoop UI,界面美觀,功能也比較豐富。今天,在這里主要給大家介紹Ganglia這款監控工具,介紹的內容主要包含如下:

  • Ganglia背景
  • Ganglia安裝部署、配置
  • Hadoop集群配置Ganglia
  • 啟動、預覽Ganglia

  下面開始今天的內容分享。

2.Ganglia背景

  Ganglia是UC Berkeley發起的一個開源集群監視項目,設計用於測量數以千計的節點。Ganglia的核心包含gmond、gmetad以及一個Web前端。主要是用來監控系統性能,如:cpu 、mem、硬盤利用率, I/O負載、網絡流量情況等,通過曲線很容易見到每個節點的工作狀態,對合理調整、分配系統資源,提高系統整體性能起到重要作用。

  Ganglia其核心由3部分組成:

  • gmond:運行在每個節點上監視並收集節點信息,可以同時收發統計信息,它可以運行在廣播模式和單播模式中。
  • gmetad:從gmond以poll的方式收集和存儲原數據。
  • ganglia-web:部署在gmetad機器上,訪問gmetad存儲的元數據並由Apache Web提高用戶訪問接口。

  下面,我們來看看Ganglia的架構圖,如下圖所示:

  從架構圖中,我們可以知道Ganglia支持故障轉移,統計可以配置多個收集節點。所以我們在配置的時候,可以按需選擇去配置Ganglia,既可以配置廣播,也可以配置單播。根據實際需求和手上資源來決定。

3.Ganglia安裝部署、配置

3.1安裝

  本次安裝的Ganglia工具是基於Apache的Hadoop-2.6.0,若是未安裝Hadoop集群,可以參考我寫的《配置高可用的Hadoop平台》。另外系統環境是CentOS 6.6。首先,我們下載Ganglia軟件包,步驟如下所示:

  • 第一步:安裝yum epel源
[hadoop@nna ~]$ rpm -Uvh http://dl.fedoraproject.org/pub/epel/6/i386/epel-release-6-8.noarch.rpm
  • 第二步:安裝依賴包
 
         
[hadoop@nna ~]$ yum -y install httpd-devel automake autoconf libtool ncurses-devel libxslt groff pcre-devel pkgconfig
  • 第三步:查看Ganglia安裝包
 
         
[hadoop@nna ~]$ yum search ganglia

  然后,我為了簡便,把Ganglia安裝全部安裝,安裝命令如下所示:

  • 第四步:安裝Ganglia
[hadoop@nna ~]$ yum -y install ganglia*

  最后等待安裝完成,由於這里資源有限,我將Ganglia Web也安裝在NNA節點上,另外,其他節點也需要安裝Ganglia的Gmond服務,該服務用來發送數據到Gmetad,安裝方式參考上面的步驟。

3.2部署

  在安裝Ganglia時,我這里將Ganglia Web部署在NNA節點,其他節點部署Gmond服務,下表為各個節點的部署角色:

節點 Host 角色
NNA 10.211.55.26 Gmetad、Gmond、Ganglia-Web
NNS 10.211.55.27 Gmond
DN1 10.211.55.16 Gmond
DN2 10.211.55.17 Gmond
DN3 10.211.55.18 Gmond

  Ganglia部署在Hadoop集群的分布圖,如下所示:

3.3配置

  在安裝好Ganglia后,我們需要對Ganglia工具進行配置,在由Ganglia-Web服務的節點上,我們需要配置Web服務。

  • ganglia.conf

[hadoop@nna ~]$ vi /etc/httpd/conf.d/ganglia.conf 

  修改內容如下所示:

#
# Ganglia monitoring system php web frontend
#

Alias /ganglia /usr/share/ganglia

<Location /ganglia>
  Order deny,allow
  # Deny from all
  Allow from all
  # Allow from 127.0.0.1
  # Allow from ::1
  # Allow from .example.com
</Location>

  注:紅色為添加的內容,綠色為注銷的內容。

  • gmetad.conf 
[hadoop@nna ~]$ vi /etc/ganglia/gmetad.conf 

  修改內容如下所示:

data_source "hadoop" nna nns dn1 dn2 dn3

  這里“hadoop”表示集群名,nna nns dn1 dn2 dn3表示節點域名或IP。

  • gmond.conf
[hadoop@nna ~]$ vi /etc/ganglia/gmond.conf 

  修改內容如下所示:

/*
 * The cluster attributes specified will be used as part of the <CLUSTER>
 * tag that will wrap all hosts collected by this instance.
 */
cluster {
  name = "hadoop"
  owner = "unspecified"
  latlong = "unspecified"
  url = "unspecified"
}

/* Feel free to specify as many udp_send_channels as you like.  Gmond
   used to only support having a single channel */
udp_send_channel {
  #bind_hostname = yes # Highly recommended, soon to be default.
                       # This option tells gmond to use a source address
                       # that resolves to the machine's hostname.  Without
                       # this, the metrics may appear to come from any
                       # interface and the DNS names associated with
                       # those IPs will be used to create the RRDs.
  # mcast_join = 239.2.11.71
  host = 10.211.55.26
  port = 8649
  ttl = 1
}

/* You can specify as many udp_recv_channels as you like as well. */
udp_recv_channel {
  # mcast_join = 239.2.11.71
  port = 8649
  bind = 10.211.55.26
  retry_bind = true
  # Size of the UDP buffer. If you are handling lots of metrics you really
  # should bump it up to e.g. 10MB or even higher.
  # buffer = 10485760
}

  這里我采用的是單播,cluster下的name要與gmetad中的data_source配置的名稱一致,發送節點地址配置為NNA的IP,接受節點配置在NNA上,所以綁定的IP是NNA節點的IP。以上配置是在有Gmetad服務和Ganglia-Web服務的節點上需要配置,在其他節點只需要配置gmond.conf文件即可,內容配置如下所示:

/* Feel free to specify as many udp_send_channels as you like.  Gmond
   used to only support having a single channel */
udp_send_channel {
  #bind_hostname = yes # Highly recommended, soon to be default.
                       # This option tells gmond to use a source address
                       # that resolves to the machine's hostname.  Without
                       # this, the metrics may appear to come from any
                       # interface and the DNS names associated with
                       # those IPs will be used to create the RRDs.
  # mcast_join = 239.2.11.71
  host = 10.211.55.26
  port = 8649
  ttl = 1
}

/* You can specify as many udp_recv_channels as you like as well. */
udp_recv_channel {
  # mcast_join = 239.2.11.71
  port = 8649
  # bind = 10.211.55.26
  retry_bind = true
  # Size of the UDP buffer. If you are handling lots of metrics you really
  # should bump it up to e.g. 10MB or even higher.
  # buffer = 10485760
}

4.Hadoop集群配置Ganglia

  在Hadoop中,對Ganglia的兼容是很好的,在Hadoop的目錄下/hadoop-2.6.0/etc/hadoop,我們可以找到hadoop-metrics2.properties文件,這里我們修改文件內容如下所示,命令如下所示:

[hadoop@nna hadoop]$ vi hadoop-metrics2.properties

  修改內容如下所示:

namenode.sink.ganglia.servers=nna:8649

#datanode.sink.ganglia.servers=yourgangliahost_1:8649,yourgangliahost_2:8649

resourcemanager.sink.ganglia.servers=nna:8649

#nodemanager.sink.ganglia.servers=yourgangliahost_1:8649,yourgangliahost_2:8649

mrappmaster.sink.ganglia.servers=nna:8649

jobhistoryserver.sink.ganglia.servers=nna:8649

  這里修改的是NameNode節點的內容,若是修改DataNode節點信息,內容如下所示:

#namenode.sink.ganglia.servers=nna:8649

datanode.sink.ganglia.servers=dn1:8649

#resourcemanager.sink.ganglia.servers=nna:8649

nodemanager.sink.ganglia.servers=dn1:8649

#mrappmaster.sink.ganglia.servers=nna:8649

#jobhistoryserver.sink.ganglia.servers=nna:8649

  其他DN節點可以以此作為參考來進行修改。

  另外,在配置完成后,若之前Hadoop集群是運行的,這里需要重啟集群服務。

5.啟動、預覽Ganglia

  Ganglia的啟動命令有start、restart以及stop,這里我們分別在各個節點啟動相應的服務,各個節點需要啟動的服務如下:

  • NNA節點:
[hadoop@nna ~]$ service gmetad start
[hadoop@nna ~]$ service gmond start
[hadoop@nna ~]$ service httpd start
  • NNS節點:
[hadoop@nns ~]$ service gmond start
  • DN1節點:
[hadoop@dn1 ~]$ service gmond start
  • DN2節點:
[hadoop@dn2 ~]$ service gmond start
  • DN3節點:
[hadoop@dn3 ~]$ service gmond start

  然后,到這里Ganglia的相關服務就啟動完畢了,下面給大家附上Ganglia監控的運行截圖,如下所示:

6.總結

  在安裝Hadoop監控工具Ganglia時,需要在安裝的時候注意一些問題,比如:系統環境的依賴,由於Ganglia需要依賴一些安裝包,在安裝之前把依賴環境准備好,另外在配置Ganglia的時候需要格外注意,理解Ganglia的架構很重要,這有助於我們在Hadoop集群上去部署相關的Ganglia服務,同時,在配置Hadoop安裝包的配置文件下(/etc/hadoop)目錄下,配置Ganglia配置文件。將hadoop-metrics2.properties配置文件集成到Hadoop集群中去。

7.結束語

  這篇博客就和大家分享到這里,如果大家在研究學習的過程當中有什么問題,可以加群進行討論或發送郵件給我,我會盡我所能為您解答,與君共勉!


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM