1. 数据倾斜
1.1 什么是数据倾斜?
-
由于数据分布不均匀,造成数据大量的集中到一点,造成数据热点
-
Hadoop 框架的特性
- 不怕数据大,怕数据倾斜
- Jobs 数比较多的作业运行效率相对比较低,如子查询比较多
- sum,count,max,min 等聚集函数,通常不会有数据倾斜问题
-
主要表现:
任务进度长时间维持在 99%或者 100%的附近,查看任务监控页面,发现只有少量 reduce子任务未完成,因为其处理的数据量和其他的 reduce 差异过大。
单一 reduce 处理的记录数和平均记录数相差太大,通常达到好几倍之多,最长时间远大
于平均时长。
1.2 容易数据倾斜情况
操作 | 情形 | 后果 |
---|---|---|
join | 其中一个表小 但是key集中 |
分发到某一个或几个reduce中的数据远高于平均值 |
join | 大表与大表,但是分桶的判断字段0或空值过多 | 这些空值由一个reduce处理,非常慢 |
group by | group by维度过小,某值的数据过多 | 处理某值的reduce非常耗时 |
count distinct | 某特殊值过多 | 处理此特殊值的reduce耗时 |
- reduce join hive执行join的时候如果执行的是reduce join极易数据倾斜的
- group by 不和聚集函数搭配使用的时候
select count(*) from course; 全局计数 (一个reduce task中)
- count(distinct),在数据量大的情况下,容易数据倾斜,因为 count(distinct)是按 group
by 字段分组,按 distinct 字段排序 - 小表关联超大表 join
1.3 产生数据倾斜的原因
- key 分布不均匀
- 业务数据本身的特性
- 建表考虑不周全
- 某些 HQL 语句本身就存在数据倾斜
1.4 不会产生数据倾斜的情况
-
不执行MR任务的情况
fetch过程不会转MR
配置参数:property> name>hive.fetch.task.conversionname> value>morevalue> description> 可取值[none, minimal, more]. Some select queries can be converted to single FETCH task minimizing latency. Currently the query should be single sourced not having any subquery and should not have any aggregations or distincts (which incurs RS), lateral views and joins. 0. none : disable hive.fetch.task.conversion 1. minimal : SELECT *, FILTER on partition columns, LIMIT only 也就是:select * ,过滤条件是分区字段,limit 2. more : SELECT, FILTER, LIMIT only (support TABLESAMPLE and virtual columns) 也就是:select 所有字段,按照所有字段过滤,limit description> property>
-
group by和聚合函数(sum count max min)一起使用
group by和以上的聚合函数一起使用的时候会默认在map端执行一次combiner(局部聚合:减少reducetask的数据量,这个时候reduce端接受的数据就会大大减少 一般不会出现数据倾斜select id,count(*) from course group by id;
-
map join
mapjoin reducejoin 优缺点
1.5 业务场景
1.5.1 空值产生的数据倾斜
场景描述:
user 用户信息表 userid 一个用户注册这个表就会多一条数据 userid!=null
log 日志信息表 userid 用户只要有一个行为就多一条数据 如果未登录用户操作 userid=null 这种数据数据特别多5T
操作:
select * from user a join log b on a.userid=b.userid;
map-key: userid
userid 大量的null值 这些null值最终都会到一个reducetask中
就会造成有null的这个reducetask的数据量很大
100reducetask
99reducetask 0.05 t
1reduce 5t
reducetask 99%
reducetask 99%
reducetask 99%
解决方案:
方案一:null值不参与关联
select
*
from user a join
(select * from log where userid is not null) b
on a.userid=b.userid;
--需要null的数据
select
*
from user a join
(select * from log where userid is not null) b
on a.userid=b.userid
union all
select * from log where userid is null;
方案二:赋予空值新的key值
--所有的null值全部到一个reducetask中 进行关联的时候 null值分开 null---变身
--null123.hash%reduce null456 null112
select
*
from user a
join log b
on case when b.userid is null then concat_ws(b.userid,cast(rand()*1000 as int)) else b.userid end = a.userid;
总结:
方法 2 比方法 1 效率更好,不但 IO 少了,而且作业数也少了,
方案 1 中,log 表读了两次,jobs 肯定是 2,而方案 2 是 1。
这个优化适合无效 id(比如-99,’’,null)产生的数据倾斜,把空值的 key 变成一个字符串加上一个随机数,就能把造成数据倾斜的数据分到不同的 reduce 上解决数据倾斜的问题
改变之处:
使本身为 null 的所有记录不会拥挤在同一个 reduceTask 了,会由于有替代的随机字符串值,而分散到了多个 reduceTask 中了,由于 null 值关联不上,处理后并不影响最终结果。
1.5.2 不同数据类型关联产生数据倾斜
场景说明:
--用户表中 user_id 字段为 int,log 表中 user_id 为既有 string 也有 int 的类型,
user userid int
log userid string
-- 当按照两个表的 user_id 进行 join 操作的时候,默认的 hash 操作会按照 int 类型的 id 进
-- 行分配,这样就会导致所有的 string 类型的 id 就被分到同一个 reducer 当中
解决方案:
把数字类型 id 转换成 string 类型的 id
select * from user a left outer join log b on b.user_id = cast(a.user_id as string)
1.5.1 大小表关联查询产生数据倾斜
-
大小 或 小 小 关联(小表 在hive中默认的是map端的join,小表不得超过23.8M左右
property> name>hive.auto.convert.joinname> value>truevalue> description>Whether Hive enables the optimization about converting common join into mapjoin based on the input file size 指定是否启动mapjoin description> property> property> name>hive.mapjoin.smalltable.filesizename> value>25000000value> description> The threshold for the input file size of the small tables; if the file size is smaller than this threshold, it will try to convert the common join into map join mapjoin对于小表的大小的限定 默认大小不得超过23.8M左右 较小表大小不超过23.8M 执行的都是mapjoin description> property>
-
大* 中 (中表:超过23.8M) 放在缓存中足够的
默认执行的是reducejoin(容易产生数据倾斜的)
强制执行mapjoin /+mapjoin(需要放在缓存中的中表)/-- user 1T log 300M select /*+mapjoin(a)*/ * from log a join user b on a.userid=b.userid; --执行的仍然是mapjoin
-
大*大
-- user 1T 所有用户 userid
-- log 存储一天的数据 10G userid(大量的重复数据) 一个用户10条日志信息
-- 瘦身的表 user表 根据log中的有效的userid表瘦身user表
--瘦身user表
--1. 获取log的去重之后的userid
select distinct userid from log where userid is not null;
--2. 使用user表关联上面的数据
select
/*+mapjoin(a)*/b.*
from (select distinct userid from log where userid is not null) a join user b on a.userid=b.userid;
-- 3. 开始真正的关联
select
/*+mapjoin(c)*/*
from (
select
/*+mapjoin(a)*/b.*
from (select distinct userid from log where userid is not null) a join user b on a.userid=b.userid
) c join log d on c.userid=d.userid;
注意:使用map join解决小表关联大表造成的数据倾斜问题。这个方法使用的频率很高。
map join 概念:将其中做连接的小表(全量数据)分发到所有 MapTask 端进行 Join,从而避免了 reduceTask,前提要求是内存足以装下该全量数据
- 以大表 a 和小表 b 为例,所有的 maptask 节点都装载小表 b 的所有数据,然后大表 a 的一个数据块数据比如说是 a1 去跟 b 全量数据做链接,就省去了 reduce 做汇总的过程。
- 所以相对来说,在内存允许的条件下使用 map join 比直接使用 MapReduce 效率还高些,当然这只限于做 join 查询的时候。
在 hive 中,直接提供了能够在 HQL 语句指定该次查询使用 map join
map join 的用法是在查询/子查询的SELECT关键字后面添加/*+ MAPJOIN(tablelist) */提示优化器转化为map
join(早期的 Hive 版本的优化器是不能自动优化 map join 的)。其中 tablelist 可以是一个表,或以逗号连接的表的列表。tablelist 中的表将会读入内存,通常应该是将小表写在这里。
2. hive执行过程实例分析
- Hive 将 HQL 转换成一组操作符(Operator),比如 GroupByOperator, JoinOperator 等
- 操作符 Operator 是 Hive 的最小处理单元
- 每个操作符代表一个 HDFS 操作或者 MapReduce 作业
- Hive 通过 ExecMapper 和 ExecReducer 执行 MapReduce 程序,执行模式有本地模式和分
布式两种模式
2.1 Hive 操作符列表
2.2 Hive 编译器的工作职责
Parser: 将 HQL 语句转换成抽象语法树(AST:Abstract Syntax Tree)
Semantic Analyzer: 将抽象语法树转换成查询块
Logic Plan Generator: 将查询块转换成逻辑查询计划
Logic Optimizer: 重写逻辑查询计划,优化逻辑执行计划
Physical Plan Gernerator: 将逻辑计划转化成物理计划(MapReduce Jobs)
Physical Optimizer: 选择最佳的 Join 策略,优化物理执行计划
2.3 优化器类型
上表中带①符号的,优化目的都是尽量将任务合并到一个 Job 中,以减少 Job 数量,带②的优化目的是尽量减少 shuffle 数据量
2.4 hive查看执行过程
explain sql # 查看当前语句执行计算
--Operator 操作符:hive执行任务的时候的最小的执行单元
--这里的操作符1)hdfs的读写 2)mapreduce的操作
--执行计划实质上就是hive的sql语句---转换为一个个的操作符--mapreduce任务/hdfs任务
--
hive> explain
> select
> uid,sum(cast(pcount as int)+cast(rcount as int)) totalcount
> from weibo
> group by uid
> order by totalcount desc limit 10;
OK
STAGE DEPENDENCIES:
Stage-1 is a root stage
Stage-2 depends on stages: Stage-1
Stage-0 depends on stages: Stage-2
STAGE PLANS:
Stage: Stage-1
Map Reduce
Map Operator Tree:
TableScan
alias: weibo
Statistics: Num rows: 2795 Data size: 961727 Basic stats: COMPLETE Column stats: NONE
Select Operator
expressions: uid (type: string), (UDFToInteger(pcount) + UDFToInteger(rcount)) (type: int)
outputColumnNames: _col0, _col1
Statistics: Num rows: 2795 Data size: 961727 Basic stats: COMPLETE Column stats: NONE
Group By Operator
aggregations: sum(_col1)
keys: _col0 (type: string)
mode: hash
outputColumnNames: _col0, _col1
Statistics: Num rows: 2795 Data size: 961727 Basic stats: COMPLETE Column stats: NONE
Reduce Output Operator
key expressions: _col0 (type: string)
sort order: +
Map-reduce partition columns: _col0 (type: string)
Statistics: Num rows: 2795 Data size: 961727 Basic stats: COMPLETE Column stats: NONE
value expressions: _col1 (type: bigint)
Reduce Operator Tree:
Group By Operator
aggregations: sum(VALUE._col0)
keys: KEY._col0 (type: string)
mode: mergepartial
outputColumnNames: _col0, _col1
Statistics: Num rows: 1397 Data size: 480691 Basic stats: COMPLETE Column stats: NONE
File Output Operator
compressed: false
table:
input format: org.apache.hadoop.mapred.SequenceFileInputFormat
output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
serde: org.apache.hadoop.hive.serde2.lazybinary.LazyBinarySerDe
Stage: Stage-2
Map Reduce
Map Operator Tree:
TableScan
Reduce Output Operator
key expressions: _col1 (type: bigint)
sort order: -
Statistics: Num rows: 1397 Data size: 480691 Basic stats: COMPLETE Column stats: NONE
TopN Hash Memory Usage: 0.1
value expressions: _col0 (type: string)
Reduce Operator Tree:
Select Operator
expressions: VALUE._col0 (type: string), KEY.reducesinkkey0 (type: bigint)
outputColumnNames: _col0, _col1
Statistics: Num rows: 1397 Data size: 480691 Basic stats: COMPLETE Column stats: NONE
Limit
Number of rows: 10
Statistics: Num rows: 10 Data size: 3440 Basic stats: COMPLETE Column stats: NONE
File Output Operator
compressed: false
Statistics: Num rows: 10 Data size: 3440 Basic stats: COMPLETE Column stats: NONE
table:
input format: org.apache.hadoop.mapred.SequenceFileInputFormat
output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
Stage: Stage-0
Fetch Operator
limit: 10
Processor Tree:
ListSink
Time taken: 1.864 seconds, Fetched: 74 row(s)
2.5 几个常用语句的MR转换
join
SELECT pv.pageid, u.age FROM page_view pv JOIN user u ON pv.userid = u.userid;
实现过程:
Map:
- 以 JOIN ON 条件中的列作为 Key,如果有多个列,则 Key 是这些列的组合
- 以 JOIN 之后所关心的列作为 Value,当有多个列时,Value 是这些列的组合。在
Value 中还会包含表的 Tag 信息,用于标明此 Value 对应于哪个表 - 按照 Key 进行排序
Shuffle:
- 根据 Key 的值进行 Hash,并将 Key/Value 对按照 Hash 值推至不同对 Reduce 中
Reduce:
- Reducer 根据 Key 值进行 Join 操作,并且通过 Tag 来识别不同的表中的数据
具体实现过程:
group by
SELECT pageid, age, count(1) FROM pv_users GROUP BY pageid, age;
distinct
SELECT age, count(distinct pageid) FROM pv_users GROUP BY age;
按照 age 分组,然后统计每个分组里面的不重复的 pageid 有多少个
该 SQL 语句会按照 age 和 pageid 预先分组,进行 distinct 操作。然后会再按照 age 进行分组,再进行一次 distinct 操作
3. hive 优化策略
3.1 Hadoop框架计算特性
- 数据量大不是问题,数据倾斜是个问题
- Jobs 数比较多的作业运行效率相对比较低,比如即使有几百行的表,如果多次关联多次汇总,产生十几个 jobs,耗时很长。
原因是 map reduce 作业初始化的时间是比较长的 - sum,count,max,min 等 UDAF,不怕数据倾斜问题,hadoop 在 map 端的汇总合并优化,使数据倾斜不成问题
- count(distinct userid),在数据量大的情况下,效率较低,如果是多 count(distinct userid,month)效率更低,因为 count(distinct)是按 group by 字段分组,按 distinct 字段排序,一般这种分布方式是很倾斜的,比如 PV 数据,淘宝一天 30 亿的 pv,如果按性别分组,分配 2 个 reduce,每个 reduce 期望处理 15 亿数据,但现实必定是男少女多
3.2 优化常用手段
- 好的模型设计事半功倍
- 解决数据倾斜问题
- 减少 job 数
- 设置合理的 MapReduce 的 task 数,能有效提升性能。(比如,10w+级别的计算,用 160个 reduce,那是相当的浪费,1 个足够)
- 了解数据分布,自己动手解决数据倾斜问题是个不错的选择。这是通用的算法优化,但算法优化有时不能适应特定业务背景,开发人员了解业务,了解数据,可以通过业务逻辑精确有效的解决数据倾斜问题
- 数据量较大的情况下,慎用 count(distinct),group by 容易产生倾斜问题
- 对小文件进行合并,是行之有效的提高调度效率的方法,假如所有的作业设置合理的文件数,对作业的整体调度效率也会产生积极的正向影响
- 优化时把握整体,单个作业最优不如整体最优
3.3 排序选择
cluster by: 对同一字段分桶并排序,不能和 sort by 连用
distribute by + sort by: 分桶,保证同一字段值只存在一个结果文件当中,结合 sort by 保证每个 reduceTask 结果有序
sort by: 单机排序,单个 reduce 结果有序
**order by:**全局排序,缺陷是只能使用一个 reduce
一定要区分这四种排序的使用方式和适用场景
3.4 怎样做笛卡尔积
当 Hive 设定为严格模式(hive.mapred.mode=strict)时,不允许在 HQL 语句中出现笛卡尔积,
这实际说明了 Hive 对笛卡尔积支持较弱。
因为找不到 Join key,Hive 只能使用 1 个 reducer来完成笛卡尔积。
当然也可以使用 limit 的办法来减少某个表参与 join 的数据量,
但对于需要笛卡尔积语义的需求来说,经常是一个大表和一个小表的 Join 操作,
结果仍然很大(以至于无法用单机处理),这时 MapJoin 才是最好的解决办法。
MapJoin,顾名思义,会在 Map 端完成 Join 操作。
这需要将 Join 操作的一个或多个表完全读入内存。
PS:MapJoin 在子查询中可能出现未知 BUG。
在大表和小表做笛卡尔积时,规避笛卡尔积的方法是,给 Join 添加一个 Join key,
原理很简单:将小表扩充一列 join key,并将小表的条目复制数倍,join key 各不相同,将大表扩充一列 join key 为随机数。
精髓就在于复制几倍,最后就有几个 reduce 来做,
而且大表的数据是前面小表扩张 key 值范围里面随机出来的,
所以复制了几倍 n,就相当于这个随机范围就有多大 n,
那么相应的,大表的数据就被随机的分为了 n 份。
并且最后处理所用的 reduce 数量也是 n,而且也不会出现数据倾斜。
3.5 怎样写 in/exists 语句
虽然经过测验,hive1.2.1 也支持 in/exists 操作,但还是推荐使用 hive 的一个高效替代方案:left semi join
比如说:
select a.id, a.name from a where a.id in (select b.id from b);
select a.id, a.name from a where exists (select id from b where a.id = b.id);
--应该转换成:
select a.id, a.name from a left semi join b on a.id = b.id;
3.6 设置合理的 maptask 数量
Map 数过大
- Map 阶段输出文件太小,产生大量小文件
- 创建 Map 的开销很大
Map 数太小
- 文件处理或查询并发度小,Job 执行时间过长
- 大量作业时,容易堵塞集群
在 MapReduce 的编程案例中,我们得知,一个MR Job的 MapTask 数量是由输入分片 InputSplit
决定的。而输入分片是由 FileInputFormat.getSplit()决定的。一个输入分片对应一个 MapTask,
而输入分片是由三个参数决定的:
property | value | description |
---|---|---|
dfs.blocksize | 128M | HDFS 默认数据块大小 |
mapreduce.input.fileinputformat.split.minsize | 1 | 最小分片大小 |
mapreduce.input.fileinputformat.split.maxsize | Long.MAX_VALUE | 最大分片大小(MR) |
mapreduce.input.fileinputformat.split.maxsize | 256M | 最大处理数据量 Hive |
输入分片大小的计算是这么计算出来的:
long splitSize = Math.max(minSize, Math.min(maxSize, blockSize))
默认情况下,输入分片大小和 HDFS 集群默认数据块大小一致,也就是默认一个数据块,
启用一个 MapTask 进行处理,这样做的好处是避免了服务器节点之间的数据传输,提高 job 处理效率
两种经典的控制 MapTask 的个数方案:减少 MapTask 数或者增加 MapTask 数
- 减少 MapTask 数是通过合并小文件来实现,这一点主要是针对数据源
- 增加 MapTask 数可以通过控制上一个 job 的 reduceTask 个数
因为 Hive 语句最终要转换为一系列的 MapReduce Job 的,而每一个 MapReduce Job 是由一系列的 MapTask 和 ReduceTask 组成的,默认情况下, MapReduce 中一个 MapTask 或者一个ReduceTask 就会启动一个 JVM 进程,一个 Task 执行完毕后, JVM 进程就退出。这样如果任务花费时间很短,又要多次启动 JVM 的情况下,JVM 的启动时间会变成一个比较大的消耗,
这个时候,就可以通过重用 JVM 来解决:
set mapred.job.reuse.jvm.num.tasks=5
3.7 小文件合并
文件数目过多,会给 HDFS 带来压力,并且会影响处理效率,可以通过合并 Map 和 Reduce 的结果文件来消除这样的影响:
set hive.merge.mapfiles = true ##在 map only 的任务结束时合并小文件
set hive.merge.mapredfiles = false ## true 时在 MapReduce 的任务结束时合并小文件
set hive.merge.size.per.task = 256*1000*1000 ##合并文件的大小
set mapred.max.split.size=256000000; ##每个 Map 最大分割大小
set mapred.min.split.size.per.node=1; ##一个节点上 split 的最少值
set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat; ##执行 Map 前进行小文件合并
3.8 设置合理的 reduceTask 的数量
Hadoop MapReduce 程序中,reducer 个数的设定极大影响执行效率,这使得 Hive 怎样决定reducer 个数成为一个关键问题。遗憾的是 Hive 的估计机制很弱,不指定 reducer 个数的情况下,Hive 会猜测确定一个 reducer 个数,基于以下两个设定:
hive.exec.reducers.bytes.per.reducer(默认为 256000000)
hive.exec.reducers.max(默认为 1009)
mapreduce.job.reduces=-1(设置一个常量 reducetask 数量)
计算 reducer 数的公式很简单:N=min(参数 2,总输入数据量/参数 1)
通常情况下,有必要手动指定 reducer 个数。
考虑到 map 阶段的输出数据量通常会比输入有大幅减少,因此即使不设定 reducer 个数,重设参数 2 还是必要的。
依据 Hadoop 的经验,可以将参数 2 设定为 0.95*(集群中 datanode 个数)。
3.9 合并 MapReduce 操作
Multi-group by 是 Hive 的一个非常好的特性,它使得 Hive 中利用中间结果变得非常方便。
例如:
FROM
(SELECT a.status, b.school, b.gender FROM status_updates a JOIN profiles b ON (a.userid =
b.userid and a.ds='2009-03-20' ) ) subq1
INSERT OVERWRITE TABLE gender_summary PARTITION(ds='2009-03-20')
SELECT subq1.gender, COUNT(1) GROUP BY subq1.gender
INSERT OVERWRITE TABLE school_summary PARTITION(ds='2009-03-20')
SELECT subq1.school, COUNT(1) GROUP BY subq1.school
上述查询语句使用了 multi-group by 特性连续 group by 了 2 次数据,使用不同的 group by key。
这一特性可以减少一次 MapReduce 操作
3.10 合理利用分桶:Bucketing 和 Sampling
Bucket 是指将数据以指定列的值为 key 进行 hash,hash 到指定数目的桶中。这样就可以支持高效采样了。如下例就是以 userid 这一列为 bucket 的依据,共设置 32 个 buckets
CREATE TABLE page_view(viewTime INT, userid BIGINT,
page_url STRING, referrer_url STRING,
ip STRING COMMENT 'IP Address of the User')
COMMENT 'This is the page view table'
PARTITIONED BY(dt STRING, country STRING)
CLUSTERED BY(userid) SORTED BY(viewTime) INTO 32 BUCKETS
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '1'
COLLECTION ITEMS TERMINATED BY '2'
MAP KEYS TERMINATED BY '3'
STORED AS SEQUENCEFILE;
通常情况下,Sampling 在全体数据上进行采样,这样效率自然就低,它要去访问所有数据。
而如果一个表已经对某一列制作了 bucket,就可以采样所有桶中指定序号的某个桶,这就
减少了访问量。
如下例所示就是采样了 page_view 中 32 个桶中的第三个桶的全部数据:SELECT * FROM page_view TABLESAMPLE(BUCKET 3 OUT OF 32);
如下例所示就是采样了 page_view 中 32 个桶中的第三个桶的一半数据:SELECT * FROM page_view TABLESAMPLE(BUCKET 3 OUT OF 64);
3.11 合理利用分区:Partition
Partition 就是分区。分区通过在创建表时启用 partitioned by 实现,用来 partition 的维度并不是实际数据的某一列,具体分区的标志是由插入内容时给定的。当要查询某一分区的内容时可以采用 where 语句,形似 where tablename.partition_column = a 来实现。
创建含分区的表
CREATE TABLE page_view(viewTime INT, userid BIGINT,
page_url STRING, referrer_url STRING,
ip STRING COMMENT 'IP Address of the User')
PARTITIONED BY(date STRING, country STRING)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '1'
STORED AS TEXTFILE;
--载入内容,并指定分区标志
oad data local inpath '/home/hadoop/pv_2008-06-08_us.txt' into table page_view
partition(date='2008-06-08', country='US');
--查询指定标志的分区内容
SELECT page_views.* FROM page_views
WHERE page_views.date >= '2008-03-01' AND page_views.date '2008-03-31' AND
page_views.referrer_url like '%xyz.com';
3.12 join 优化
总体原则:
- 优先过滤后再进行 Join 操作,最大限度的减少参与 join 的数据量
- 小表 join 大表,最好启动 mapjoin
- Join on 的条件相同的话,最好放入同一个 job,并且 join 表的排列顺序从小到大
在使用写有 Join 操作的查询语句时有一条原则:应该将条目少的表/子查询放在 Join 操作
符的左边。原因是在 Join 操作的 Reduce 阶段,位于 Join 操作符左边的表的内容会被加
载进内存,将条目少的表放在左边,可以有效减少发生 OOM 错误的几率。
对于一条语句中有多个 Join 的情况,
--1.如果 Join 的条件相同,比如查询
INSERT OVERWRITE TABLE pv_users
SELECT pv.pageid, u.age FROM page_view p
JOIN user u ON (pv.userid = u.userid)
JOIN newuser x ON (u.userid = x.userid);
-- 如果 Join 的 key 相同,不管有多少个表,都会则会合并为一个 Map-Reduce 任务,而不
-- 是”n”个,在做 OUTER JOIN 的时候也是一样
--2.如果 join 的条件不相同,比如:
INSERT OVERWRITE TABLE pv_users
SELECT pv.pageid, u.age FROM page_view p
JOIN user u ON (pv.userid = u.userid)
JOIN newuser x on (u.age = x.age);
--Map-Reduce 的任务数目和 Join 操作的数目是对应的,上述查询和以下查询是等价的
--先 page_view 表和 user 表做链接
INSERT OVERWRITE TABLE tmptable
SELECT * FROM page_view p JOIN user u ON (pv.userid = u.userid);
--然后结果表 temptable 和 newuser 表做链接
INSERT OVERWRITE TABLE pv_users
SELECT x.pageid, x.age FROM tmptable x JOIN newuser y ON (x.age = y.age);
在编写 Join 查询语句时,如果确定是由于 join 出现的数据倾斜,那么请做如下设置:
set hive.skewjoin.key=100000; // 这个是 join 的键对应的记录条数超过这个值则会进行分拆,值根据具体数据量设置
set hive.optimize.skewjoin=true; // 如果是 join 过程出现倾斜应该设置为 true
3.13 group by 优化
Map 端部分聚合:
并不是所有的聚合操作都需要在 Reduce 端完成,很多聚合操作都可以先在 Map 端进行部分聚合,最后在 Reduce 端得出最终结果。
MapReduce 的 combiner 组件
参数包括:
set hive.map.aggr = true #是否在 Map 端进行聚合,默认为 True
set hive.groupby.mapaggr.checkinterval = 100000 #在 Map 端进行聚合操作的条目数目
当使用 Group By 有数据倾斜的时候进行负载均衡:set hive.groupby.skewindata = true
当 sql 语句使用 groupby 时数据出现倾斜时,如果该变量设置为 true,那么 Hive 会自动进行负载均衡。
策略就是把 MR 任务拆分成两个:第一个先做预汇总,第二个再做最终汇总
在 MR 的第一个阶段中,Map 的输出结果集合会缓存到 maptaks 中,每个 Reduce 做部分聚合操作,并输出结果,这样处理的结果是相同 Group By Key 有可能被分发到不同的 Reduce 中,从而达到负载均衡的目的;
第二个阶段 再根据预处理的数据结果按照 Group By Key 分布到Reduce 中(这个过程可以保证相同的 Group By Key 被分布到同一个 Reduce 中),最后完成最终的聚合操作。
3.14 合理利用文件存储格式
创建表时,尽量使用 orc、parquet 这些列式存储格式,因为列式存储的表,每一列的数据在物理上是存储在一起的,Hive 查询时会只遍历需要列数据,大大减少处理的数据量
3.15 本地模式执行 MapReduce
Hive 在集群上查询时,默认是在集群上 N 台机器上运行, 需要多个机器进行协调运行,这个方式很好地解决了大数据量的查询问题。但是当 Hive 查询处理的数据量比较小时,其实没有必要启动分布式模式去执行,因为以分布式方式执行就涉及到跨网络传输、多节点协调等,并且消耗资源。这个时间可以只使用本地模式来执行 mapreduce job,只在一台机器上执行,速度会很快。启动本地模式涉及到三个参数:
参数名 | 默认值 | 备注 |
---|---|---|
hive.exec.mode.local.auto | false | 让 hive 决定是否在本地模式自动运行 |
hive.exec.mode.local.auto.input.files.max | 4 | 不启用本地模式的 task 最大个数 |
hive.exec.mode.local.auto.inputbytes.max | 128M | 不启动本地模式的最大输入文件大小 |
set hive.exec.mode.local.auto=true
是打开 hive 自动判断是否启动本地模式的开关,但是只是打开这个参数并不能保证启动本地模式,要当 map 任务数不超过hive.exec.mode.local.auto.input.files.max
的个数并且 map 输入文件大小不超过hive.exec.mode.local.auto.inputbytes.max
所指定的大小时,才能启动本地模式。
3.16 并行化处理
一个 hive sql 语句可能会转为多个 mapreduce Job,每一个 job 就是一个 stage,这些 job 顺序执行,这个在 cli 的运行日志中也可以看到。但是有时候这些任务之间并不是是相互依赖的,如果集群资源允许的话,可以让多个并不相互依赖 stage 并发执行,这样就节约了时间,提高了执行速度,但是如果集群资源匮乏时,启用并行化反倒是会导致各个 job 相互抢占资源而导致整体执行性能的下降。
启用并行化参数:set hive.exec.parallel=true;
set hive.exec.parallel.thread.number=8; //同一个 sql 允许并行任务的最大线程数
3.17 设置压缩存储
-
压缩的原因
Hive 最终是转为 MapReduce 程序来执行的,而 MapReduce 的性能瓶颈在于网络 IO 和磁盘 IO,要解决性能瓶颈,最主要的是减少数据量,对数据进行压缩是个好的方式。压缩虽然是减少了数据量,但是压缩过程要消耗 CPU 的,但是在 Hadoop 中, 往往性能瓶颈不在于 CPU,CPU 压力并不大,所以压缩充分利用了比较空闲的 CPU -
常用压缩方法对比
-
压缩方式的选择:
压缩比率
压缩解压缩速度
是否支持 Split -
压缩使用:
Job 输出文件按照 block 以 GZip 的方式进行压缩:set mapreduce.output.fileoutputformat.compress=true // 默认值是 false set mapreduce.output.fileoutputformat.compress.type=BLOCK // 默认值是 Record set mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.GzipCodec // 默认值是 org.apache.hadoop.io.compress.DefaultCodec
Map 输出结果也以 Gzip 进行压缩:
set mapred.map.output.compress=true set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.GzipCodec // 默认值是 org.apache.hadoop.io.compress.DefaultCodec
对 Hive 输出结果和中间都进行压缩:
set hive.exec.compress.output=true // 默认值是 false,不压缩 set hive.exec.compress.intermediate=true// 默认值是 false,为 true 时 MR 设置的压缩才启用
4. 垃圾回收
hive的数据如果不小心误删了 ,怎么恢复?
hdfs的数据删除了, 默认没有进行配置hdfs的回收站, 立即删除
为了保证数据的安全性 ,一般情况下会进行hdfs的回收站的配置
一旦配置了回收站,删除数据 ,就会保存在回收站中 而不会立即删除
fs.trash.interval # 单位分钟 垃圾回收保存的时间
fs.trash.checkpoint.interval #检查点的时间间隔
1)在core-site.xml中配置
property>
name>fs.trash.intervalname>
value>60value>
property>
property>
name>fs.trash.checkpoint.intervalname>
value>60value>
property>
2)远程发送其他节点
scp core-site.xml hdp01:/home/hadoop/apps/hadoop-2.7.6/etc/hadoop
scp core-site.xml hdp03:/home/hadoop/apps/hadoop-2.7.6/etc/hadoop/
3)配置完成,删除试试:
19/12/21 17:11:07 INFO fs.TrashPolicyDefault: Moved: 'hdfs://hdp01:9000/stuin' to trash at: hdfs://hdp01:9000/user/hadoop/.Trash/Current/stuin
/user/hadoop/.Trash/Current 后面的路径就是原来的原始路径
原文链接:【Hive】hive 数据倾斜、优化策略、hive执行过程、垃圾回收
本文为从大数据到人工智能博主「bajiebajie2333」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://lrting.top/backend/8504/