將數據從數據倉庫Hive導入到MySQL


1.啟動Hadoop,hive,mysql

2.在mysql中建表(需要導入數據的)

mysql> CREATE TABLE `dbtaobao`.`user_log` (`user_id` varchar(20),`item_id` varchar(20),`cat_id` varchar(20),`merchant_id` varchar(20),`brand_id` varchar(20), `month` varchar(6),`day` varchar(6),`action` varchar(6),`age_range` varchar(6),`gender` varchar(6),`province` varchar(10)) ENGINE=InnoDB DEFAULT CHARSET=utf8;
3.選擇數據倉庫live中的數據:
建臨時表:
create table dbtaobao.inner_user_log(user_id INT,item_id INT,cat_id INT,merchant_id INT,brand_id INT,month STRING,day STRING,action INT,age_range INT,gender INT,province STRING) COMMENT 'Welcome to XMU dblab! Now create inner table inner_user_log ' ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE;

選中要被導出的數據:

INSERT OVERWRITE TABLE dbtaobao.inner_user_log select * from dbtaobao.user_log;

3.使用Sqoop將數據從Hive導入MySQL

字段值解釋:
localhost:3306/dbtaobao -->(數據庫名)MySQL
table:user_log -->(將要被你導入數據的mysql數據庫表名)
export-dir:’********‘ -->HDFS上文件的路徑(數據倉庫hive中需要被導出的數據庫表)
fields-terminated-by ',' -->Hive 中被導出的文件字段的分隔符


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM