由於想自學下Hive,所以前段時間在個人電腦上安裝了虛擬機,並安裝上Hadoop和Hive。接下我就分享下我如何安裝Hive的。步驟如下:
- 安裝虛擬機
- 安裝Hadoop
- 安裝Java
- 安裝Hive
我這里是在window10系統上安裝的用Linux的同學可以直接跳過‘安裝虛擬機’這一步,直接參考后續的安裝步驟。
一、安裝虛擬機
首先,下載VMware並在虛擬機里加入Ubuntu 16.04的鏡像文件:
VMware下載鏈接:https://download3.vmware.com/software/wkst/file/VMware-workstation-full-12.1.0-3272444.exe
Ubuntu 16.04 iso鏡像文件安裝地址:http://releases.ubuntu.com/xenial/
虛擬機安裝及加入操作系統鏡像文件的具體步驟可參考:https://blog.csdn.net/qq1326702940/article/details/82322079
接下來,我們需要安裝VMware Tools以幫我們進行虛擬機和本地環境之間的溝通(簡單來說:你可以拖拽本地文件到虛擬機上,也能復制本地的文本粘貼到虛擬機上)。可以到VMware菜單欄‘虛擬機’選項下‘安裝VMware Tools’。
# 由於VMware Tools在光盤里,要復制到進來才能進行安裝 cd /media/VMware Tools tar xvzf VMwareTools-9.6.0-1294478.tar.gz -C /root cd /root/vmware-tools-distrib ./vmware-install.pl # 開啟VMware Tools cd -- /usr/bin/vmware-user
二、安裝Java
Java1.8.0安裝地址: https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html
若安裝查詢java -version時報錯 "-bash: /usr/local/java/jdk1.8.0_261/bin/java: cannot execute binary file: 可執行文件格式錯誤",則是java與Linux系統不匹配,重新下載正確版本的java(32位:x86, 64位:x64)即可。
sudo mkdir /usr/local/java/ sudo cp 桌面/jdk-8u261-linux-i586.tar.gz /usr/local/java/ cd /usr/local/java/ sudo tar -xvzf jdk-8u261-linux-i586.tar.gz sudo echo "export JAVA_HOME=/usr/local/java/jdk1.8.0_261">/etc/profile.d/java.sh sudo echo "export PATH=$PATH:$JAVA_HOME/bin">>/etc/profile.d/java.sh . /etc/profile echo $JAVA_HOME
# 查看java版本 java -version
三、安裝Hadoop
# 下載並解壓Hadoop 2.7.7
cd -- wget http://www.us.apache.org/dist/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz tar -xzf hadoop-2.7.7.tar.gz
# 將Hadoop加入環境變量 # 若下面兩條命令沒有權限,可以sudo gedit 進sh腳本($HOME/.bashrc)里手動加入路徑 echo "export HADOOP_HOME=/home/alvinai/hadoop-2.7.7" >> $HOME/.bashrc echo "export PATH=$PATH:$HADOOP_HOME/bin" >> $HOME/.bashrc . $HOME/.bashrc # 測試Hadoop # 查看目錄 hadoop dfs -ls
讓我們來運行下Hadoop提供的wordcount樣例看看:
# 先自定義准備個文本樣例數據 mkdir wc-in echo "bla bla" > wc-in/a.txt echo "bla wa wa" > wc-in/b.txt # 運行jar文件。用戶可以把他們的Map Reduce代碼捆綁到jar文件中 hadoop jar /home/alvinai/hadoop-2.7.7/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount wc-in wc-out # 查看wordcount的輸出結果 ls wc-out/* cat wc-out/* # 也可以等價用dfs命令查看 hadoop dfs -cat wc-out/*
wordcount輸出結果如下:
四、安裝Hive
# 下載並解壓Hive 0.9.0 wget http://archive.apache.org/dist/hive/hive-0.9.0/hive-0.9.0.tar.gz tar -xzf hive-0.9.0.tar.gz mkdir -p /hive/warehouse chmod a+rwx /hive/warehouse # 加入環境變量 # 若下面兩條命令沒有權限,可以sudo gedit 進sh腳本($HOME/.bashrc)里手動加入路徑 sudo echo "export HIVE_HOME=/home/alvinai/hive-0.9.0" >> $HOME/.bashrc sudo echo "export PATH=$PATH:$HIVE_HOME/bin" >> $HOME/.bashrc
現在可以開始使用了Hive了:
以上內容部分摘自於《Hive編程指南》