从Hive1.0升级到Hive2.0(删除hive1.x中的元数据, 并不是数据迁移)


软件环境:

linux系统: CentOS6.7
Hadoop版本: 2.6.5
zookeeper版本: 3.4.8

##主机配置: ######一共m1, m2, m3这五部机, 每部主机的用户名都为centos ``` 192.168.179.201: m1 192.168.179.202: m2 192.168.179.203: m3

m1: Zookeeper, Namenode, DataNode, ResourceManager, NodeManager, Master, Worker
m2: Zookeeper, Namenode, DataNode, ResourceManager, NodeManager, Worker
m3: Zookeeper, DataNode, NodeManager, Worker





---
</br>
</br>
#####参考资料:

hive2.0特性:
http://blog.csdn.net/gamer_gyt/article/details/52062460
hive1.0与hive2.0的区别对比
http://www.36dsj.com/archives/60604





---
####说明:
若在hive1.x中已使用MySQL作为元数据库, 升级到hive2.x时仍想将MySQL作为元数据库则进行以下操作: (以下方法是删除原始在hive1.x中的元数据, 并不是原始数据迁移)
######1.删除HDFS上的hive数据与hive数据库

hadoop fs -rm -r -f /tmp/hive
hadoop fs -rm -r -f /user/hive



---
######2.若是用`MySQL`作为元数据库, 则删除`MySQL`上的`Hive`的元数据信息

mysql -uroot -p
drop database hive



---
######3.初始化hive, 将mysql作为hive的元数据库
		schematool -dbType mysql -initSchema





---
</br>
</br>
</br>


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM