首页 > 其他 > 详细

hive on spark 常用配置

时间:2019-05-09 11:57:24      阅读:280      评论:0      收藏:0      [点我收藏+]

常用设置

reset;
set hive.execution.engine=spark;
set hive.map.aggr = false;
set hive.auto.convert.join = false;
set hive.merge.mapfiles=true;
set hive.merge.mapredfiles=true;
set hive.merge.size.per.task=100000000;
-- 动态分区参数
SET hive.exec.dynamic.partition=TRUE;
SET hive.exec.dynamic.partition.mode=nonstrict;
SET hive.exec.max.dynamic.partitions=100000;
SET hive.exec.max.dynamic.partitions.pernode=100000;
-- 资源参数,根据任务调整
-- spark引擎参数
set spark.executor.cores=2;
set spark.executor.memory=4G;
set spark.executor.instances=10;

任务占用资源计算

cores : 核心数

executor.memory :单个excutor分配内存

executor.instances=10:executor个数

任务占用总核心数:2 * 10 + 1 = 21  1是driver占用的核数

占用总内存:2 * 4 * 10 = 40

hive on spark 常用配置

原文:https://www.cnblogs.com/drjava/p/10837399.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!