首页 > 其他 > 详细

hdfs文件加载进hive表的两种方法

时间:2020-09-25 08:07:55      阅读:74      评论:0      收藏:0      [点我收藏+]

1.第一种方法 当存储路径与表所在路径不一致时,可以load进去,如果表中字段类型不对应,该字段的值将会为空

load data inpath ‘hdfs://hadoop01:9000/tmp/sales_info.txt‘ overwrite into table sales_info partition(dt = ‘20191215‘);

 

2.当存储路径与表所在路径一致时,可以采用添加分区的方式

alter table ods_nshop.ods_01_releasedatas add partition (bdp_day=‘20191215‘) location ‘hdfs://hadoop01:9000/data/nshop/ods/release/bdp_day=20191215‘

hive的表如下:

create external table if not exists ods_nshop.ods_01_releasedatas(
  customer_id string comment ‘用户id‘,
  device_num string comment ‘设备号‘,
  device_type string comment ‘设备类型‘,
  os string comment ‘手机系统‘,
  os_version string comment ‘手机系统版本‘,
  manufacturer string comment ‘手机制造商‘,
  area_code string comment ‘地区编码‘,
  release_sid string comment ‘投放请求id‘,
  release_session string comment ‘投放会话id‘,
  release_sources string comment ‘投放渠道‘,
  release_params string comment ‘投放请求参数‘,
  ct bigint comment ‘创建时间‘

partitioned by (bdp_day string)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ‘,‘
stored as textfile
location ‘/data/nshop/ods/release/‘

hdfs文件加载进hive表的两种方法

原文:https://www.cnblogs.com/qiu-hua/p/13727528.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!