首页 > 数据库技术 > 详细

用sqoop将mysql的数据导入到hive表中

时间:2021-06-04 17:53:33      阅读:35      评论:0      收藏:0      [点我收藏+]

1:先将mysql一张表的数据用sqoop导入到hdfs中

准备一张表 

技术分享图片

技术分享图片

 

需求 将 bbs_product 表中的前100条数据导 导出来  只要id  brand_id和 name 这3个字段 

        数据存在 hdfs 目录   /user/xuyou/sqoop/imp_bbs_product_sannpy_  下

技术分享图片
bin/sqoop import --connect jdbc:mysql://172.16.71.27:3306/babasport --username root --password root --query ‘select id, brand_id,name from bbs_product where $CONDITIONS LIMIT 100‘ --target-dir /user/xuyou/sqoop/imp_bbs_product_sannpy_ --delete-target-dir --num-mappers 1 --compress --compression-codec org.apache.hadoop.io.compress.SnappyCodec --fields-terminated-by ‘\t‘
技术分享图片

技术分享图片

 

ps: 如果导出的数据库是mysql  则可以添加一个 属性  --direct 

技术分享图片
 1 bin/sqoop import  2 --connect jdbc:mysql://172.16.71.27:3306/babasport  3 --username root  4 --password root  5 --query ‘select id, brand_id,name from bbs_product  where $CONDITIONS LIMIT 100‘  6 --target-dir /user/xuyou/sqoop/imp_bbs_product_sannpy_  7 --delete-target-dir  8 --num-mappers 1  9 --compress 10 --compression-codec org.apache.hadoop.io.compress.SnappyCodec 11 --direct 12 --fields-terminated-by ‘\t‘
技术分享图片

加了 direct 属性在导出mysql数据库表中的数据会快一点 执行的是mysq自带的导出功能

第一次执行所需要的时间 

技术分享图片

 

第二次执行所需要的时间 (加了direct属性)

 技术分享图片

 

执行成功

技术分享图片

2:启动hive 在hive中创建一张表 

技术分享图片
1 drop table if exists default.hive_bbs_product_snappy ;
2 create table default.hive_bbs_product_snappy(
3  id int,
4  brand_id int,
5   name string
6 )
7 ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t‘ ;
技术分享图片

技术分享图片

 

3:将hdfs中的数据导入到hive中

1 load data inpath ‘/user/xuyou/sqoop/imp_bbs_product_sannpy_‘ into table default.hive_bbs_product_snappy ;

技术分享图片

 

 4:查询  hive_bbs_product_snappy 表 

 

1 select * from hive_bbs_product_snappy;

 技术分享图片

 

    此时hdfs 中原数据没有了

技术分享图片

     然后进入hive的hdfs存储位置发现 

技术分享图片

 

注意 :sqoop 提供了 直接将mysql数据 导入 hive的 功能  底层 步骤就是以上步骤   

创建一个文件  touch test.sql     编辑文件  vi test.sql 

技术分享图片
1 use default;
2 drop table if exists default.hive_bbs_product_snappy ;
3 create table default.hive_bbs_product_snappy(
4 id int,
5 brand_id int,
6 name string
7 )
8 ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t‘ ;
技术分享图片

 

技术分享图片

 

 在 启动hive的时候 执行 sql脚本

bin/hive -f /opt/cdh-5.3.6/sqoop-1.4.5-cdh5.3.6/test.sql

技术分享图片

 

技术分享图片

 

 执行sqoop直接导入hive的功能

技术分享图片
 1 bin/sqoop import  2 --connect jdbc:mysql://172.16.71.27:3306/babasport  3 --username root  4 --password root  5 --table bbs_product  6 --fields-terminated-by ‘\t‘  7 --delete-target-dir  8 --num-mappers 1  9 --hive-import 10 --hive-database default 11 --hive-table hive_bbs_product_snappy
技术分享图片

 

 看日志输出可以看出 在执行map任务之后 又执行了load data 

技术分享图片

 

 查询 hive 数据

技术分享图片

 

 
 
转自:https://www.cnblogs.com/xuyou551/p/7998846.html

用sqoop将mysql的数据导入到hive表中

原文:https://www.cnblogs.com/javalinux/p/14849477.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!