# 系列文章目录
<font color=#999AAA >大数据分析利器之Hive(一)
大数据分析利器之Hive(二)
大数据分析利器之Hive(三)

<hr style=" border:solid; width:100px; height:1px;" color=#000000 size=1">

<font color=#999AAA >

@[TOC](文章目录)

</font>

<hr style=" border:solid; width:100px; height:1px;" color=#000000 size=1">

# 前言

<font color=#999AAA >本文主要围绕hive的高级操作进行讲解。主要包括以下几个方面。
hive表的数据压缩和文件存储格式
hive的企业级调优</font>

<hr style=" border:solid; width:100px; height:1px;" color=#000000 size=1">

### 1. Hive表的数据压缩 
#### 1、数据的压缩说明
- 压缩模式评价
  - 可使用以下三种标准对压缩方式进行评价
    - 1、压缩比:压缩比越高,压缩后文件越小,所以压缩比越高越好
    - 2、压缩时间:越快越好
    - 3、已经压缩的格式文件是否可以再分割:可以分割的格式允许单一文件由多个Mapper程序处理,可以更好的并行化
- 常见压缩格式

压缩方式压缩比压缩速度解压缩速度是否可分割
  gzip  13.4%  21 MB/s   118 MB/s      否    
 bzip2  13.2%  2.4MB/s   9.5MB/s      是    
  lzo    20.5%  135 MB/s 410 MB/s      否    
 snappy  22.2%  172 MB/s 409 MB/s      否    

- Hadoop编/解码器方式

压缩格式            对应的编码/解码器              
DEFLATE  org.apache.hadoop.io.compress.DefaultCodec
  Gzip   org.apache.hadoop.io.compress.GzipCodec  
 BZip2   org.apache.hadoop.io.compress.BZip2Codec  
  LZO        com.hadoop.compress.lzo.LzopCodec      
 Snappy  org.apache.hadoop.io.compress.SnappyCodec  

- 压缩性能的比较

| 压缩算法 | 原始文件大小 | 压缩文件大小 | 压缩速度 | 解压速度 |
| -------- | ------------ | ------------ | -------- | -------- |
| gzip     | 8.3GB        | 1.8GB        | 17.5MB/s | 58MB/s   |
| bzip2    | 8.3GB        | 1.1GB        | 2.4MB/s  | 9.5MB/s  |
| LZO      | 8.3GB        | 2.9GB        | 49.3MB/s | 74.6MB/s |

http://google.github.io/snappy/

On a single core of a Core i7 processor in 64-bit mode, Snappy compresses at about 250 MB/sec or more and decompresses at about 500 MB/sec or more.

#### 2、压缩配置参数

- 要在Hadoop中启用压缩,可以配置如下参数(mapred-site.xml文件中):

| 参数                                                 | 默认值                                                       | 阶段        | 建议                                         |
| ---------------------------------------------------- | ------------------------------------------------------------ | ----------- | -------------------------------------------- |
| io.compression.codecs      (在core-site.xml中配置) | org.apache.hadoop.io.compress.DefaultCodec,   org.apache.hadoop.io.compress.GzipCodec, org.apache.hadoop.io.compress.BZip2Codec,   org.apache.hadoop.io.compress.Lz4Codec | 输入压缩    | Hadoop使用文件扩展名判断是否支持某种编解码器 |
| mapreduce.map.output.compress                        | true                                                         | mapper输出  | 这个参数设为true启用压缩                     |
| mapreduce.map.output.compress.codec                  | org.apache.hadoop.io.compress.DefaultCodec                   | mapper输出  | 使用LZO、LZ4或snappy编解码器在此阶段压缩数据 |
| mapreduce.output.fileoutputformat.compress           | true                                                         | reducer输出 | 这个参数设为true启用压缩                     |
| mapreduce.output.fileoutputformat.compress.codec     | org.apache.hadoop.io.compress. DefaultCodec                  | reducer输出 | 使用标准工具或者编解码器,如gzip和bzip2      |
| mapreduce.output.fileoutputformat.compress.type      | NONE\|RECORD                                                 | reducer输出 | SequenceFile输出使用的压缩类型:NONE和BLOCK  |

#### 3、开启Map输出阶段压缩

- 开启map输出阶段压缩可以减少job中map和Reduce task间数据传输量。具体配置如下:

案例实操:

1)hql语句可能被转换成多个job,如job1的结果作为job2的输入...开启job间结果数据的压缩功能;默认false  
hive (default)>set hive.exec.compress.intermediate=true;

2)开启mapreduce中map输出压缩功能;默认false  
hive (default)>set mapreduce.map.output.compress=true;

3)设置mapreduce中map输出数据的压缩方式;默认DefaultCodec  
hive (default)>set mapreduce.map.output.compress.codec= org.apache.hadoop.io.compress.SnappyCodec;

4)执行查询语句  
hive (default)>select count(1) from score;

#### 4、 开启Reduce输出阶段压缩

- 当Hive将输出写入到表中时,输出内容同样可以进行压缩。属性hive.exec.compress.output控制着这个功能。用户可能需要保持默认设置文件中的默认值false,这样默认的输出就是非压缩的纯文本文件了。用户可以通过在查询语句或执行脚本中设置这个值为true,来开启输出结果压缩功能。

案例实操:

1)开启hive最终输出数据的压缩功能;默认false  
hive (default)>set hive.exec.compress.output=true;

2)开启mapreduce最终输出数据压缩;默认false  
hive (default)>set mapreduce.output.fileoutputformat.compress=true;

3)设置mapreduce最终数据输出压缩方式;默认DefaultCodec  
hive (default)> set mapreduce.output.fileoutputformat.compress.codec = org.apache.hadoop.io.compress.SnappyCodec;

4)设置mapreduce最终数据输出压缩为块压缩;默认RECORD  
hive (default)>set mapreduce.output.fileoutputformat.compress.type=BLOCK;

5)测试一下输出结果是否是压缩文件  
insert overwrite local directory '/kkb/install/hivedatas/snappy'   
select * from score distribute by s\_id sort by s\_id desc;

### 2. Hive表的文件存储格式

- Hive支持的存储数据的格式主要有:TEXTFILE(行式存储) 、SEQUENCEFILE(行式存储)、ORC(列式存储)、PARQUET(列式存储)。
#### 1、列式存储和行式存储
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210326155540968.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM0NTc3MTgy,size_16,color_FFFFFF,t_30)
- 上图左边为逻辑表,右边第一个为行式存储,第二个为列式存储。

- **行存储的特点:** 查询满足条件的一整行数据的时候,列存储则需要去每个聚集的字段找到对应的每个列的值,行存储只需要找到其中一个值,其余的值都在相邻地方,所以此时行存储查询的速度更快。

- **列存储的特点:** 因为每个字段的数据聚集存储,在查询只需要少数几个字段的时候,能大大减少读取的数据量;每个字段的数据类型一定是相同的,列式存储可以针对性的设计更好的设计压缩算法。  select   某些字段效率更高

- TEXTFILE和SEQUENCEFILE的存储格式都是基于行存储的;

- ORC和PARQUET是基于列式存储的。

#### 2 、TEXTFILE格式

- 默认格式,数据不做压缩,磁盘开销大,数据解析开销大。可结合Gzip、Bzip2使用(系统自动检查,执行查询时自动解压),但使用gzip方式,hive不会对数据进行切分,从而无法对数据进行并行操作。

#### 3 、ORC格式

- Orc (Optimized Row Columnar)是hive 0.11版里引入的新的存储格式。

- 可以看到每个Orc文件由1个或多个stripe组成,每个stripe250MB大小,这个Stripe实际相当于RowGroup概念,不过大小由4MB->250MB,这样能提升顺序读的吞吐率。每个Stripe里有三部分组成,分别是Index Data,Row Data,Stripe Footer:

![在这里插入图片描述](https://img-blog.csdnimg.cn/20210326155922575.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_20,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM0NTc3MTgy,size_16,color_FFFFFF,t_70)
- 一个orc文件可以分为若干个Stripe

- 一个stripe可以分为三个部分

  - indexData:某些列的索引数据

  - rowData :真正的数据存储

  - StripFooter:stripe的元数据信息

    1)Index Data:一个轻量级的index,默认是每隔1W行做一个索引。这里做的索引只是记录某行的各字段在Row Data中的offset。

      2)Row Data:存的是具体的数据,先取部分行,然后对这些行按列进行存储。对每个列进行了编码,分成多个Stream来存储。

      3)Stripe Footer:存的是各个stripe的元数据信息

- 每个文件有一个File Footer,这里面存的是每个Stripe的行数,每个Column的数据类型信息等;

- 每个文件的尾部是一个PostScript,这里面记录了整个文件的压缩类型以及FileFooter的长度信息等。在读取文件时,会seek到文件尾部读PostScript,从里面解析到File Footer长度,再读FileFooter,从里面解析到各个Stripe信息,再读各个Stripe,即从后往前读。

#### 4 、PARQUET格式

- Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache顶级项目。

- Parquet文件是以==二进制==方式存储的,所以是不可以直接读取的,文件中包括该文件的==数据和元数据==,因此Parquet格式文件是自解析的。

- 通常情况下,在存储Parquet数据的时候会按照Block大小设置行组的大小,由于一般情况下每一个Mapper任务处理数据的最小单位是一个Block,这样可以把每一个行组由一个Mapper任务处理,增大任务执行并行度。Parquet文件的格式如下图所示。

![在这里插入图片描述](https://img-blog.csdnimg.cn/2021032616004988.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM0NTc3MTgy,size_16,color_FFFFFF,t_70)
- 上图展示了一个Parquet文件的内容,一个文件中可以存储多个行组,文件的首位都是该文件的Magic Code,用于校验它是否是一个Parquet文件,Footer length记录了文件元数据的大小,通过该值和文件长度可以计算出元数据的偏移量,文件的元数据中包括每一个行组的元数据信息和该文件存储数据的Schema信息。除了文件中每一个行组的元数据,每一页的开始都会存储该页的元数据,在Parquet中,有三种类型的页:数据页、字典页和索引页。数据页用于存储当前行组中该列的值,字典页存储该列值的编码字典,每一个列块中最多包含一个字典页,索引页用来存储当前行组下该列的索引,目前Parquet中还不支持索引页。

#### 5、 主流文件存储格式(TEXTFILE/ORC/PARQUET)
建表语法:

create table log_text (  
...  
)ROW FORMAT DELIMITED FIELDS TERMINATED BY '\\t'  
STORED AS TEXTFILE/ORC/PARQUET ;

### 3、存储和压缩结合

官网:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+ORC

ORC存储方式的压缩:

| Key                      | Default    | Notes                                                        |
| ------------------------ | ---------- | ------------------------------------------------------------ |
| orc.compress             | ZLIB       | high level   compression (one of ==NONE, ZLIB, SNAPPY==)     |
| orc.compress.size        | 262,144    | number of bytes in   each compression chunk                  |
| orc.stripe.size          | 67,108,864 | number of bytes in   each stripe                             |
| orc.row.index.stride     | 10,000     | number of rows   between index entries (must be >= 1000)     |
| orc.create.index         | true       | whether to create row   indexes                              |
| orc.bloom.filter.columns | ""         | comma separated list of column names for which bloom filter   should be created |
| orc.bloom.filter.fpp     | 0.05       | false positive probability for bloom filter (must >0.0 and   <1.0) |

<hr style=" border:solid; width:100px; height:1px;" color=#000000 size=1">

#### 1. 创建一个非压缩的的ORC存储方式

(1)建表语句

create table log\_orc\_none(  
...  
)  
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\\t'  
STORED AS orc tblproperties ("orc.compress"="NONE");

#### 2. 创建一个SNAPPY压缩的ORC存储方式

(1)建表语句

create table log\_orc\_snappy(  
...  
)  
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\\t'  
STORED AS orc tblproperties ("orc.compress"="SNAPPY");

2)存储方式和压缩总结:

       在实际的项目开发当中,hive表的数据存储格式一般选择:orc或parquet。压缩方式一般选择snappy。

### 4. hive的企业级调优

#### 1、Fetch抓取

- Fetch抓取是指,==Hive中对某些情况的查询可以不必使用MapReduce计算==

  - 例如:`select * from score;`
  - 在这种情况下,Hive可以简单地读取employee对应的存储目录下的文件,然后输出查询结果到控制台

- 在hive-default.xml.template文件中 ==hive.fetch.task.conversion默认是more==,老版本hive默认是minimal,该属性修改为more以后,在全局查找、字段查找、limit查找等都不走mapreduce。

- 案例实操

  - 把 hive.fetch.task.conversion设置成**==none==**,然后执行查询语句,都会执行mapreduce程序

set hive.fetch.task.conversion=none;

  - 把 hive.fetch.task.conversion设置成**==none==**,然后执行查询语句,都会执行mapreduce程序

set hive.fetch.task.conversion=more;

#### 2、本地模式

- 在Hive客户端测试时,默认情况下是启用hadoop的job模式,把任务提交到集群中运行,这样会导致计算非常缓慢;

- Hive可以通过本地模式在单台机器上处理任务。对于小数据集,执行时间可以明显被缩短。

- 案例实操

  在开始本地模式之前,先运行语句

set hive.exec.mode.local.auto;  
select * from score cluster by s_id;

开启本地模式

--开启本地模式,并执行查询语句;默认false  
set hive.exec.mode.local.auto=true;  //开启本地mr

--设置local mr的最大输入数据量,当输入数据量小于这个值时采用local  mr的方式,  
--默认为134217728,即128M  
set hive.exec.mode.local.auto.inputbytes.max=50000000;

--设置local mr的最大输入文件个数,当输入文件个数小于这个值时采用local mr的方式,  
--默认为4  
set hive.exec.mode.local.auto.input.files.max=5;

--执行查询的sql语句  
select * from score cluster by s_id;

--关闭本地运行模式  
set hive.exec.mode.local.auto=false;

#### 3、表的优化

##### 1 小表、大表 join

- 将key相对分散,并且数据量小的表放在join的左边,这样可以有效减少内存溢出错误发生的几率;再进一步,可以使用map join让小的维度表(1000条以下的记录条数)先进内存。在map端完成reduce。

- 实际测试发现:新版的hive已经对小表 join 大表和大表 join 小表进行了优化。小表放在左边和右边已经没有明显区别。

- 多个表关联时,最好分拆成小段,避免大sql(无法控制中间Job)

##### 2 大表 join 大表

- 1.空 key 过滤

  - 有时join超时是因为某些key对应的数据太多,而相同key对应的数据都会发送到相同的reducer上,从而导致内存不够。

  - 此时我们应该仔细分析这些异常的key,很多情况下,这些key对应的数据是异常数据,我们需要在SQL语句中进行过滤。

  - 例:

INSERT OVERWRITE TABLE jointable  
SELECT a.* FROM (SELECT * FROM nullidtable WHERE id IS NOT NULL ) a JOIN ori b ON a.id = b.id;

2、空 key 转换

- 有时虽然某个 key 为空对应的数据很多,但是相应的数据不是异常数据,必须要包含在 join 的结果中,此时我们可以表 a 中 key 为空的字段赋一个随机的值,使得数据随机均匀地分不到不同的 reducer 上。

  不随机分布:
例:

\-\- 默认值256000000,即256m  
set hive.exec.reducers.bytes.per.reducer=32123456;  
set mapreduce.job.reduces=7;

INSERT OVERWRITE TABLE jointable  
SELECT a.*  
FROM nullidtable a  
LEFT JOIN ori b ON CASE WHEN a.id IS NULL THEN 'hive' ELSE a.id END = b.id;  
No rows affected (41.668 seconds)

结果:这样的后果就是所有为null值的id全部都变成了相同的字符串,及其容易造成数据的倾斜(所有的key相同,相同key的数据会到同一个reduce当中去)
  
  为了解决这种情况,我们可以通过hive的rand函数,随记的给每一个为空的id赋上一个随机值,这样就不会造成数据倾斜        

- 随机分布:

set hive.exec.reducers.bytes.per.reducer=32123456;  
  set mapreduce.job.reduces=7;  
    
  INSERT OVERWRITE TABLE jointable  
  SELECT a.*  
  FROM nullidtable a  
  LEFT JOIN ori b ON CASE WHEN a.id IS NULL THEN concat('hive', rand()) ELSE a.id END = b.id;

##### 3  map  join 
- 如果不指定MapJoin 或者不符合 MapJoin的条件,那么Hive解析器会将Join操作转换成Common Join,即:在Reduce阶段完成join。容易发生数据倾斜。可以用 MapJoin 把小表全部加载到内存,在map端进行join,避免reducer处理。

- 1、开启MapJoin参数设置

--默认为true  
set hive.auto.convert.join = true;

- 2、大表小表的阈值设置(默认25M一下认为是小表)

set hive.mapjoin.smalltable.filesize=26214400;

- 3、MapJoin工作机制

![在这里插入图片描述](https://img-blog.csdnimg.cn/202103261617494.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM0NTc3MTgy,size_16,color_FFFFFF,t_70)
首先是Task A,它是一个Local Task(在客户端本地执行的Task),负责扫描小表b的数据,将其转换成一个HashTable的数据结构,并写入本地的文件中,之后将该文件加载到DistributeCache中。

接下来是Task B,该任务是一个没有Reduce的MR,启动MapTasks扫描大表a,在Map阶段,根据a的每一条记录去和DistributeCache中b表对应的HashTable关联,并直接输出结果。

由于MapJoin没有Reduce,所以由Map直接输出结果文件,有多少个Map Task,就有多少个结果文件。

##### 4 group By

- 默认情况下,Map阶段同一Key数据分发给一个reduce,当一个key数据过大时就倾斜了。

- 并不是所有的聚合操作都需要在Reduce端完成,很多聚合操作都可以先在Map端进行部分聚合,最后在Reduce端得出最终结果。

- 开启Map端聚合参数设置

--是否在Map端进行聚合,默认为True  
set hive.map.aggr = true;  
--在Map端进行聚合操作的条目数目;默认100000  
set hive.groupby.mapaggr.checkinterval = 100000;  
--有数据倾斜的时候进行负载均衡(默认是false)  
set hive.groupby.skewindata = true;

当选项设定为 true,生成的查询计划会有两个MR Job。  
第一个MR Job中,Map的输出结果会随机分布到Reduce中,每个Reduce做部分聚合操作,并输出结果,这样处理的结果是相同的Group By Key有可能被分发到不同的Reduce中,从而达到负载均衡的目的;  
第二个MR Job再根据预处理的数据结果按照Group By Key分布到Reduce中(这个过程可以保证相同的Group By Key被分布到同一个Reduce中),最后完成最终的聚合操作。

##### 5 count(distinct) 

- 数据量小的时候无所谓,数据量大的情况下,由于count distinct 操作需要用一个reduce Task来完成,这一个Reduce需要处理的数据量太大,就会导致整个Job很难完成,一般count distinct使用先group by 再count的方式替换

#### 4、使用分区剪裁、列剪裁

- 尽可能早地过滤掉尽可能多的数据量,避免大量数据流入外层SQL。
- 列剪裁
  - 只获取需要的列的数据,减少数据输入。
  - 少用select  *
- 分区裁剪
  - 分区在hive实质上是目录,分区裁剪可以方便直接地过滤掉大部分数据。
  - 尽量使用分区过滤

先关联再Where:

SELECT a.id  
FROM bigtable a  
LEFT JOIN ori b ON a.id = b.id  
WHERE b.id <= 10;

正确的写法是写在ON后面:先过滤再关联

SELECT a.id  
FROM ori a  
LEFT JOIN bigtable b ON (a.id <= 10 AND a.id = b.id);

或者直接写成子查询:

SELECT a.id  
FROM bigtable a  
RIGHT JOIN (SELECT id  
FROM ori  
WHERE id <= 10  
) b ON a.id = b.id;

#### 5、并行执行

- 把一个sql语句中没有相互依赖的阶段并行去运行。提高集群资源利用率

--开启并行执行;默认false  
set hive.exec.parallel=true;  
--同一个sql允许最大并行度,默认为8。  
set hive.exec.parallel.thread.number=16;

#### 6、严格模式

- Hive提供了一个严格模式,可以防止用户执行那些可能意想不到的不好的影响的查询。

- 通过设置属性hive.mapred.mode值为默认是非严格模式**nonstrict** 。开启严格模式需要修改hive.mapred.mode值为**strict**,开启严格模式可以禁止3种类型的查询。

--设置非严格模式(默认nonstrict)  
set hive.mapred.mode=nonstrict;

--设置严格模式  
set hive.mapred.mode=strict;

- (1)对于分区表,除非where语句中含有分区字段过滤条件来限制范围,否则不允许执行

  sql   --设置严格模式下 执行sql语句报错; 非严格模式下是可以的   select * from score; -- score是个分区表      异常信息:Error: Error while compiling statement: FAILED: SemanticException \[Error 10041\]: No partition predicate found for Alias "order\_partition" Table "order\_partition"   

- (2)对于使用了order by语句的查询,要求必须使用limit语句

  sql   --设置严格模式下 执行sql语句报错; 非严格模式下是可以的   select * from score where month='201806' order by s_score;       异常信息:Error: Error while compiling statement: FAILED: SemanticException 1:61 In strict mode, if ORDER BY is specified, LIMIT must also be specified. Error encountered near token 'order_price'  

- (3)限制笛卡尔积的查询

  严格模式下,避免出现笛卡尔积的查询

#### 7、JVM重用

- JVM重用是Hadoop调优参数的内容,其对Hive的性能具有非常大的影响,特别是对于很难避免小文件的场景或task特别多的场景,这类场景大多数执行时间都很短。

  Hadoop的默认配置通常是使用派生JVM来执行map和Reduce任务的。这时JVM的启动过程可能会造成相当大的开销,尤其是执行的job包含有成百上千task任务的情况。JVM重用可以使得JVM实例在同一个job中重新使用N次。N的值可以在Hadoop的mapred-site.xml文件中进行配置。通常在10-20之间,具体多少需要根据具体业务场景测试得出。

<property>  
  <name>mapreduce.job.jvm.numtasks</name>  
  <value>10</value>  
  <description>How many tasks to run per jvm. If set to -1, there is  
  no limit.   
  </description>  
</property>

- 我们也可以在hive当中通过

set mapred.job.reuse.jvm.num.tasks=10;

这个设置来设置我们的jvm重用

这个功能的缺点是,开启JVM重用将一直占用使用到的task插槽,以便进行重用,直到任务完成后才能释放。如果某个“不平衡的”job中有某几个reduce task执行的时间要比其他Reduce task消耗的时间多的多的话,那么保留的插槽就会一直空闲着却无法被其他的job使用,直到所有的task都结束了才会释放。

#### 8、使用EXPLAIN(执行计划)

- 查看hql执行计划

explain select * from score where month='201806';

#### 9、压缩

    参见数据的压缩

- Hive表中间数据压缩

  shell   #设置为true为激活中间数据压缩功能,默认是false,没有开启   set hive.exec.compress.intermediate=true;   #设置中间数据的压缩算法   set mapred.map.output.compression.codec= org.apache.hadoop.io.compress.SnappyCodec;  

- Hive表最终输出结果压缩

  shell   set hive.exec.compress.output=true;   set mapred.output.compression.codec=    org.apache.hadoop.io.compress.SnappyCodec;  

#### 11、数据倾斜

##### 1 合理设置Map数

- 1)  通常情况下,作业会通过input的目录产生一个或者多个map任务。

     主要的决定因素有:input的文件总个数,input的文件大小,集群设置的文件块大小。      举例:   a)  假设input目录下有1个文件a,大小为780M,那么hadoop会将该文件a分隔成7个块(6个128m的块和1个12m的块),从而产生7个map数。   b) 假设input目录下有3个文件a,b,c大小分别为10m,20m,150m,那么hadoop会分隔成4个块(10m,20m,128m,22m),从而产生4个map数。即,如果文件大于块大小(128m),那么会拆分,如果小于块大小,则把该文件当成一个块。  

- 2) 是不是map数越多越好?

       答案是否定的。如果一个任务有很多小文件(远远小于块大小128m),则每个小文件也会被当做一个块,用一个map任务来完成,而一个map任务启动和初始化的时间远远大于逻辑处理的时间,就会造成很大的资源浪费。而且,同时可执行的map数是受限的。  

- 3) 是不是保证每个map处理接近128m的文件块,就高枕无忧了?

     答案也是不一定。比如有一个127m的文件,正常会用一个map去完成,但这个文件只有一个或者两个小字段,却有几千万的记录,如果map处理的逻辑比较复杂,用一个map任务去做,肯定也比较耗时。      针对上面的问题2和3,我们需要采取两种方式来解决:即减少map数和增加map数;     

##### 2 小文件合并

- 在map执行前合并小文件,减少map数:

- CombineHiveInputFormat 具有对小文件进行合并的功能(系统默认的格式)

  sql   set mapred.max.split.size=112345600;   set mapred.min.split.size.per.node=112345600;   set mapred.min.split.size.per.rack=112345600;   set hive.input.format= org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;  

  这个参数表示执行前进行小文件合并,前面三个参数确定合并文件块的大小,大于文件块大小128m的,按照128m来分隔,小于128m,大于100m的,按照100m来分隔,把那些小于100m的(包括小文件和分隔大文件剩下的),进行合并。

##### 3 复杂文件增加Map数

- 当input的文件都很大,任务逻辑复杂,map执行非常慢的时候,可以考虑增加Map数,来使得每个map处理的数据量减少,从而提高任务的执行效率。

- 增加map的方法为

  - 根据 ==computeSliteSize(Math.max(minSize,Math.min(maxSize,blocksize)))==公式
  - ==调整maxSize最大值==。让maxSize最大值低于blocksize就可以增加map的个数。

     mapreduce.input.fileinputformat.split.minsize=1 默认值为1      mapreduce.input.fileinputformat.split.maxsize=Long.MAXValue 默认值Long.MAXValue因此,默认情况下,切片大小=blocksize       maxsize(切片最大值): 参数如果调到比blocksize小,则会让切片变小,而且就等于配置的这个参数的值。      minsize(切片最小值): 参数调的比blockSize大,则可以让切片变得比blocksize还大。     

  - 例如

  sql   --设置maxsize大小为10M,也就是说一个fileSplit的大小为10M   set mapreduce.input.fileinputformat.split.maxsize=10485760;  

##### 4 合理设置Reduce数

- 1、调整reduce个数方法一

  - 1)每个Reduce处理的数据量默认是256MB

    sql     set hive.exec.reducers.bytes.per.reducer=256000000;    

  - 2) 每个任务最大的reduce数,默认为1009

    sql     set hive.exec.reducers.max=1009;    

  - 3) 计算reducer数的公式

    sql     N=min(参数2,总输入数据量/参数1)    

- 2、调整reduce个数方法二

  sql   --设置每一个job中reduce个数   set mapreduce.job.reduces=3;  

- 3、reduce个数并不是越多越好
- 过多的启动和初始化reduce也会消耗时间和资源;

- 同时过多的reduce会生成很多个文件,也有可能出现小文件问题

# 总结
<font color=#999AAA >
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210326163500861.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM0NTc3MTgy,size_16,color_FFFFFF,t_30)

获取更多干货,请关注我的个人公众号,关注领取福利
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210326163518234.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_20,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM0NTc3MTgy,size_16,color_FFFFFF,t_70)