1.查找命令
bin/hadoop
2.啟動兩個HDFS集群
hadoop0,hadoop1,都是偽分布式的集群
3.啟動hadoop3的zookeeper與hbase
注意點:需要開啟yarn服務,因為distcp需要yarn。
3.在hdfs上可以看到hadoop3上有表s1.
4.官網
下面使用的情況是:不同版本的集群之間進行拷貝,建議查官網。
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
5.拷貝hadoop3上的s1到hadoop0
bin/hadoop distcp -i hftp://192.168.91.133:50070/hbase/data/default/s1 hdfs://192.168.91.130:8020/s1
使用hadoop的distcp,因為hbase底層是HDFS,所以要拷貝底層數據,后面關於表,在使用hbase的修復。
hadoop的修復可以看命令bin/hdfs。
hbase的修復命令可以看bin/hbase。
5.刪除在hadoop3中的元數據
6.在hadoop3的hdfs上同樣不再有數據s1
7.重新把數據從hadoop0上遷移到hadoop3上
bin/hadoop distcp -i hftp://192.168.91.130:50070/s1 hdfs://192.168.91.133:8020/hbase/data/default/s1
8.hbase中狀況
9.修復元數據
bin/hbase hbck -fixAssignments -fixMeta
10.使用