1. 安裝虛擬機,Hadoop和Hive


由於想自學下Hive,所以前段時間在個人電腦上安裝了虛擬機,並安裝上Hadoop和Hive。接下我就分享下我如何安裝Hive的。步驟如下:

  1. 安裝虛擬機
  2. 安裝Hadoop
  3. 安裝Java
  4. 安裝Hive

我這里是在window10系統上安裝的用Linux的同學可以直接跳過‘安裝虛擬機’這一步,直接參考后續的安裝步驟。

 

一、安裝虛擬機

首先,下載VMware並在虛擬機里加入Ubuntu 16.04的鏡像文件:

VMware下載鏈接:https://download3.vmware.com/software/wkst/file/VMware-workstation-full-12.1.0-3272444.exe
Ubuntu 16.04 iso鏡像文件安裝地址:http://releases.ubuntu.com/xenial/

虛擬機安裝及加入操作系統鏡像文件的具體步驟可參考:https://blog.csdn.net/qq1326702940/article/details/82322079

 

接下來,我們需要安裝VMware Tools以幫我們進行虛擬機和本地環境之間的溝通(簡單來說:你可以拖拽本地文件到虛擬機上,也能復制本地的文本粘貼到虛擬機上)。可以到VMware菜單欄‘虛擬機’選項下‘安裝VMware Tools’。

# 由於VMware Tools在光盤里,要復制到進來才能進行安裝
cd /media/VMware Tools
tar xvzf VMwareTools-9.6.0-1294478.tar.gz -C /root
cd /root/vmware-tools-distrib
./vmware-install.pl

# 開啟VMware Tools
cd --
/usr/bin/vmware-user

 

二、安裝Java

Java1.8.0安裝地址: https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html

若安裝查詢java -version時報錯 "-bash: /usr/local/java/jdk1.8.0_261/bin/java: cannot execute binary file: 可執行文件格式錯誤",則是java與Linux系統不匹配,重新下載正確版本的java(32位:x86, 64位:x64)即可。

sudo mkdir /usr/local/java/
sudo cp 桌面/jdk-8u261-linux-i586.tar.gz /usr/local/java/
cd /usr/local/java/
sudo tar -xvzf jdk-8u261-linux-i586.tar.gz
sudo echo "export JAVA_HOME=/usr/local/java/jdk1.8.0_261">/etc/profile.d/java.sh
sudo echo "export PATH=$PATH:$JAVA_HOME/bin">>/etc/profile.d/java.sh
. /etc/profile
echo $JAVA_HOME

# 查看java版本 java
-version

 

三、安裝Hadoop

# 下載並解壓Hadoop 2.7.7
cd -- wget http://www.us.apache.org/dist/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz tar -xzf hadoop-2.7.7.tar.gz

# 將Hadoop加入環境變量 # 若下面兩條命令沒有權限,可以sudo gedit 進sh腳本($HOME
/.bashrc)里手動加入路徑 echo "export HADOOP_HOME=/home/alvinai/hadoop-2.7.7" >> $HOME/.bashrc echo "export PATH=$PATH:$HADOOP_HOME/bin" >> $HOME/.bashrc . $HOME/.bashrc # 測試Hadoop # 查看目錄 hadoop dfs -ls

 讓我們來運行下Hadoop提供的wordcount樣例看看:

# 先自定義准備個文本樣例數據
mkdir wc-in
echo "bla bla" > wc-in/a.txt
echo "bla wa wa" > wc-in/b.txt

# 運行jar文件。用戶可以把他們的Map Reduce代碼捆綁到jar文件中
hadoop jar /home/alvinai/hadoop-2.7.7/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount wc-in wc-out

# 查看wordcount的輸出結果
ls wc-out/*
cat wc-out/*
# 也可以等價用dfs命令查看
hadoop dfs -cat wc-out/*

wordcount輸出結果如下:

 

四、安裝Hive

# 下載並解壓Hive 0.9.0
wget http://archive.apache.org/dist/hive/hive-0.9.0/hive-0.9.0.tar.gz
tar -xzf hive-0.9.0.tar.gz
mkdir -p /hive/warehouse
chmod a+rwx /hive/warehouse

# 加入環境變量
# 若下面兩條命令沒有權限,可以sudo gedit 進sh腳本($HOME/.bashrc)里手動加入路徑
sudo echo "export HIVE_HOME=/home/alvinai/hive-0.9.0" >> $HOME/.bashrc
sudo echo "export PATH=$PATH:$HIVE_HOME/bin" >>  $HOME/.bashrc

現在可以開始使用了Hive了:

 

 以上內容部分摘自於《Hive編程指南》


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM