初次啟動hive,解決 ls: cannot access /home/hadoop/spark-2.2.0-bin-hadoop2.6/lib/spark-assembly-*.jar: No such file or directory問題


>>提君博客原創  http://www.cnblogs.com/tijun/  <<

剛剛安裝好hive,進行第一次啟動

提君博客原創

[hadoop@ltt1 bin]$ ./hive
ls: cannot access /home/hadoop/spark-2.2.0-bin-hadoop2.6/lib/spark-assembly-*.jar: No such file or directory
which: no hbase in (/home/hadoop/hive110/bin:/home/hadoop/spark-2.2.0-bin-hadoop2.6/bin:/home/hadoop/scala-2.11.0/bin:/home/hadoop/protobuf250/bin:/home/hadoop/hadoop260/bin:/home/hadoop/zookeeper345/bin:/home/hadoop/maven339/bin:/home/hadoop/jdk1.8.0_144/bin:/home/hadoop/spark-2.2.0-bin-hadoop2.6/bin:/home/hadoop/scala-2.11.0/bin:/home/hadoop/protobuf250/bin:/home/hadoop/hadoop260/bin:/home/hadoop/zookeeper345/bin:/home/hadoop/maven339/bin:/home/hadoop/jdk1.8.0_144/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/hadoop/bin)

Logging initialized using configuration in file:/home/hadoop/hive110/conf/hive-log4j.properties
WARNING: Hive CLI is deprecated and migration to Beeline is recommended.
hive (default)>

會出現一個提示

ls: cannot access /home/hadoop/spark-2.2.0-bin-hadoop2.6/lib/spark-assembly-*.jar: No such file or directory

出現這個問題的原因是

提君博客原創

spark升級到spark2以后,原有lib目錄下的大JAR包被分散成多個小JAR包,原來的spark-assembly-*.jar已經不存在,所以hive沒有辦法找到這個JAR包。

>>提君博客原創  http://www.cnblogs.com/tijun/  <<

解決方法

打開hive的安裝目錄下的bin目錄,找到hive文件

cd $HIVE_HOME/bin
vi hive

找到下圖中的位置

將鼠標定位的位置,更改成下圖

>>提君博客原創  http://www.cnblogs.com/tijun/  <<

這樣問題就解決了。

提君博客原創

>>提君博客原創  http://www.cnblogs.com/tijun/  <<

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM