一,通過importTsv導入數據
通過org.apache.hadoop.hbase.mapreduce.ImportTsv類來將數據導入hbase中。
1,將文件上傳到hadoop的HDFS文件系統中
[hadoop@master share]$ hadoop fs -put student.txt /user/hadoop

name gender age height

001|劉一|F|18|175
002|陳二|F|19|159
003|張三|M|20|173
004|李四|M|19|164
005|王五|M|18|185
006|趙六|M|18|172
007|孫七|F|22|163
008|周八|M|21|178
009|吳九|F|21|158
010|鄭十|F|20|165
2,在hbase shell里面建立student表
hbase(main):005:0> create 'student', 'info'
3,導入(hbase路徑 ImportTsv類 分隔符 行鍵,列族 表名 文件地址)
[hadoop@master share]$ hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator="|" -Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:gender,info:age,info:score student /user/hadoop/student.txt