本系列文章主要闡述大數據計算平台相關框架的搭建,包括如下內容:
- 虛擬服務器安裝
- 基礎環境安裝
- zookeeper集群的搭建
- kafka集群的搭建
- hadoop/hbase集群的搭建
- spark集群的搭建
- flink集群的搭建
- elasticsearch集群的搭建
- alluxio集群的搭建
本文主要講解hbase
的分布式搭建過程。
版本要求
- java版本:
1.8.0_181
- zookeeper版本:
zookeeper-3.4.10
- hadoop版本:
hadoop-2.7.6
- hbase版本:
hbase-1.2.6.1
前置條件
免密登錄
見鏈接免密登錄
java安裝
見鏈接java安裝
zookeeper安裝
見鏈接zookeeper安裝
hadoop安裝
見鏈接hadoop安裝
服務器資源和分配
本文服務器列表如下:
192.168.220.200 bigdata1
192.168.220.201 bigdata2
192.168.220.202 bigdata3
192.168.220.203 bigdata4
192.168.220.204 bigdata5
其中選用bigdata1
和bigdata2
作為namenode
,bigdata3、bigdat4、bigdata5
作為dataNode
,安裝完成后各節點進程名如下:
主機名 | ip地址 | HMaster | HRegionServer |
bigdata1 | 192.168.220.200 | Y | N |
bigdata2 | 192.168.220.201 | N | Y |
bigdata3 | 192.168.220.202 | N | Y |
bigdata4 | 192.168.220.203 | N | Y |
bigdata5 | 192.168.220.204 | N | Y |
解壓安裝
tar -zxvf hbase-1.2.6.1-bin.tar.gz
mv hbase-1.2.6.1-bin hbase
環境變量
vi ~/.bash_profile
export JAVA_HOME=/wls/oracle/jdk
export SCALA_HOME=/wls/oracle/scala
export ZOOKEEPER_HOME=/wls/oracle/zookeeper
export HADOOP_HOME=/wls/oracle/hadoop
export HBASE_HOME=/wls/oracle/hbase
export SPARK_HOME=/wls/oracle/spark
export PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin:$ZOOKEEPER_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH CLASSPATH JAVA_HOME SCALA_HOME ZOOKEEPER_HOME HADOOP_HOME SPARK_HOME
配置
hbase需要修改的配置主要包含如下文件
hbase-env.sh
hbase-site.xml
regionservers
hbase-env.sh
hbase-env.sh文件增加JAVA_HOME的配置即可
export JAVA_HOME=/home/oracle/jdk
hbase-site.xml
hbase.master
:指定master
節點
hbase.rootdir
:指定hbase
文件存儲路徑
hbase.zookeeper.quorum
:指定zookeeper
地址
hbase.zookeeper.property.dataDir
:指定在zookeeper
存儲的目錄
完整配置如下:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hbase.master</name>
<value>192.168.220.200:60000</value>
</property>
<property>
<name>hbase.master.maxclockskew</name>
<value>180000</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://cluster/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>192.168.220.200,192.168.220.201,192.168.220.202</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/hbase</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>zookeeper.session.timeout</name>
<value>60000</value>
</property>
<property>
<name>hbase.regionserver.lease.period</name>
<value>900000</value>
</property>
<property>
<name>hbase.rpc.timeout</name>
<value>900000</value>
</property>
</configuration>
regionservers
bigdata2
bigdata3
bigdata4
bigdata5
啟動
配置完成后,啟動hbase
/home/oracle/hbase/bin/start-hbase.sh
停止hbase腳本如下
/home/oracle/hbase/bin/stop-hbase.sh
本文主要講解分布hbase搭建的過程,后續將會說明hbase使用相關的問題。
關於作者
愛編程、愛鑽研、愛分享、愛生活
關注分布式、高並發、數據挖掘
如需捐贈,請掃碼