環境,參考之前的兩篇博文:
jdk1.7
hadoop2.6.0 完全分布式
一個master,slave1,slave2,slave3
zookeeper3.4.6 完全分布式
安裝與配置:(以下步驟都在master上操作,配置好了之后發送到其他的slave上並稍作環境變量配置即可)
到官網去下載hbase1.2.6的安裝包,然后解壓到/usr/local/目錄下,然后用mv命令重命名為hbase
環境變量配置:
/etc/profile
進入hbase的conf目錄下,這里邊存放的是配置文件,下面做配置:
修改hbase-env.sh文件,找到如下幾行,並且改成如圖這樣:
修改hbase-site.xml文件
<property> <name>hbase.rootdir</name> <value>hdfs://master:9000/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/usr/local/zookeeper</value> </property> <property> <name>hbase.tmp.dir</name> <value>/usr/local/hbase/tmp</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>master,slave1,slave2,slave3</value> </property> <property> <name>hbase.zookeeper.property.clientPort</name> <value>2181</value> </property> <property> <name>hbase.zookeeper.property.clientPort</name> <value>2181</value> </property>
修改regionservers,將文件內容設置為:
master
slave1
slave2
slave3
然后通過scp -r /usr/local/hbase hadoop@slave1:/usr/local/發送到slave1上,slave2、slave3的發送都一樣,然后分別在slave上做環境變量配置。
這樣就完成了,如果想檢測的話,得先啟動hadoop的dfs,然后再啟動hbase,執行hbase shell命令就能進入hbase數據庫了。
hbase1.0以后的webUI訪問端口為16010(之前的為60010)