文章主要内容

  1. MapReduce速度慢的原因
  2. MapReduce优化方法(各个阶段的优化和参数调优)
  3. HDFS小文件优化方法

Hadoop之优化策略

1.MapReduce速度慢的原因

MapReduce程序效率的瓶颈在于两点:

  1. 计算机性能
  2. IO操作优化
    a. 数据倾斜
    b. Map和Reduce数设置不合理
    c. Map运行时间太长,导致Reduce等待过久
    d. 小文件过多
    e. 大量的不可分块的超大文件
    f. 溢写的次数过多
    g. merge(归并)的次数过多

2.MapReduce优化方法

MapReduce优化方法主要从六个方面考虑:数据输入、Map阶段、Reduce阶段、IO传输、数据倾斜问题和常用的调优参数。

2.1 数据输入阶段

  • 合并小文件:在执行MR任务前将小文件进行合并,大量的小文件会产生大量的Map任务,增大Map任务装载次数,而任务的装载比较耗时,从而导致MR运行较慢。
  • 采用CombineTextInputFormat来作为输入,解决输入端大量小文件场景。

2.2 Map阶段

  • 减小溢写的次数:通过调整io.sort.mb及sort.spill.percent参数值,增大触发溢写的内存上限,减少溢写的次数,从而减少磁盘IO
  • 减少合并(merge)次数:通过调整io.sort.factor参数,增大merge的文件数目,减少merge的次数,从而缩短MR处理时间。但是这样可能会消耗更多的内存资源
  • 在Map之后,不影响业务逻辑的情况下,先进性Combine处理,减少IO

2.3 Reduce阶段

  • 合理的设置Map和Reduce数:两个都不能设置太少,也不能设置太多。太少,会导致Task等待;太多,会导致Map、Reduce任务间资源竞争,造成处理超时等错误。
  • 设置Map、Reduce共存:调整slowstart.completedmaps参数,使Map运行到一定程度后,Reduce也开始运行,减少Reduce的等待时间。
  • 规避使用Reduce:如果不需要使用Reduce可以ReduceTask的数量设置为0;因为Reduce在用于连接数据集的时候会产生大量的网络消耗。
  • 合理设置Reduce端的buffer:默认情况下,数据达到一个阈值的时候,Buffer中的数据就会写入磁盘,然后Reduce会从磁盘中获得所有的数据。也就是说,buffer和Reduce是没有直接关联的,所以这中间会出现多次写磁盘—>读磁盘的过程,导致运行速度变得很慢。可以通过参数来配置,使得Buffer中的一部分数据可以直接输送到Reduce,从而减少IO开销:mapred.job.reduce.input.buffer.percent,默认为0.0。当值大于0的时候,会保留指定比例的内存读Buffer中的数据直接拿给Reduce使用。这样一来,设置Buffer需要内存,读取数据需要内存,Reduce计算也需要内存,所以还是要根据实际情况来看。

2.4 I/O传输

  • 采用数据压缩方式,减少网络IO的时间。例如:安装Snappy和LZO压缩编码器。
  • 使用SequenceFile二进制文件

2.5 数据倾斜问题

2.5.1 数据倾斜现象:

  • 数据频率倾斜:某一个区域的数据量要远大于其他区域
  • 数据大小的倾斜:部分记录的大小远远大于平均值。

2.5.2 解决方案:

  • 可以通过对原始数据信息进行抽样,先看抽样信息中的分区是否合理,如果不合理,可以通过增加随机数、设置hashcode值等方式来把数据量大的数据集打散。
  • 自定义分区:基本上就算手动打散的意思
  • Combine
  • 采用MapJoin,尽量避免ReduceJoin

2.6 常用的调优参数

2.6.1 资源相关参数
在MR应用程序中修改配置就可以生效(mapred-default.xml),可在TaskAttemptImpl中查看,通过继承修改默认值。

配置参数

参数说明

mapreduce.map.memory.mb

一个MapTask可使用的资源上限(MB),默认为1024,如果MapTask实际使用的资源超过该值,就会被杀死

mapreduce.reduce.memory.mb

一个ReduceTask可使用的资源上限(单位MB),默认为1024,如果MapTask实际使用的资源超过该值,就会被杀死

mapreduce.map.cpu.vcores

每个MapTask可使用的最多cpu core数目,默认为1

mapreduce.reduce.cpu.vcores

每个ReduceTask可使用的最多cpu core数目,默认为1

mapreduce.reduce.shuffle.parallelcopies

每个Reduce去Map中读取数据的并行数,默认为5

mapreduce.reduce.shuffle.merge.percent

Buffer中的数据达到多少比例开始写入磁盘,默认为0.66

mapreduce.reduce.shuffle.input.buffer.percent

Buffer大小占Reduce可用内存的比例,默认为0.7

mapreduce.reduce.input.buffer.percent

指定多少比例的内存用来存放Buffer中的数据,默认是0

2.6.2 Yarn的相关参数
应该在yarn启动之前就配置在服务器的配置文件中,才能生效(yarn-default.xml)

配置参数

参数说明

yarn.scheduler.minimum-allocation-mb

给应用程序Container分配的最小内存,默认值:1024

yarn.scheduler.maximum-allocation-mb

给应用程序Container分配的最大内存,默认值:8192

yarn.scheduler.minimum-allocation-vcores

每个Container申请的最小CPU核数,默认值:1

yarn.scheduler.maximum-allocation-vcores

每个Container申请的最大CPU核数,默认值:32

yarn.nodemanager.resource.memeory-mb

给Containers分配的最大物理内存,默认值8192

2.6.3 shuffle性能优化的相关参数

配置参数

参数说明

mapreduce.task.io.sort.mb

shuffle的环形缓冲区大小,默认100m

mapreduce.map.sort.spill.percent

环形缓冲区溢出的阈值,默认80%

2.6.4 容错相关的参数(MapReduce性能优化)

配置参数

参数说明

mapreduce.map.maxattempts

每个MapTask最大重试次数,一旦重试参数超过该值,则认为MapTask运行失败,默认为4

mapreduce.reduce.maxattempts

每个ReduceTask最大重试次数,一旦重试参数超过该值,则认为ReduceTask运行失败,默认为4

mapreduce.task.timeout

Task超时时间:如果一个Task在一定时间内没有任何进入,既不会读取新的数据,也没有输出数据,则认为该Task处于block状态,为了防止它永远处于这个状态,则设定了这个超时时间,默认值为600000。

关于超时时间:如果程序对某些数据数据的处理时间过长,应该把这个值调大,该参数过小会出现下面的报错提醒:

hadoop 限流 hadoop 调优_数据

3.HDFS小文件优化方法

3.1 HDFS小文件弊端

HDFS上每个文件都要在NameNoode上建立一个索引,这个索引的大小约为150byte。如果小文件多,一方面会大量占用NameNode的内存,另一方面就是索引文件过大是的索引速度降低。

3.2 HDFS小文件解决方案

  1. 在采集数据的时候,就将小文件或小批数据合成大文件再上传HDFS。
    可采用Sequenc File,这是由一系列的二进制KV组成,如果key为文件名,value为文件内容,这样可以把大批小文件合并成一个大文件(对外是一个文件,对内是一个个键值对)。
  2. 在业务处理之前,在HDFS上使用MapReduce程序对小文件进行合并。
    可使用Hadoop Archive,这是一个高效的将小文件放入HDFS块中的文件存档工具,它能将多个小文件打包成一个HAR文件(对外是一个整体,对内依旧是一个个的小文件),减少了NameNode的内存使用。
  3. 在MapReduce处理时,可采用CombineFileInputFormat提高效率。
    CombineFileInputFormat用于将多个小文件合并成一个单独的Split(切片),另外,它会考虑数据的存储位置。
  4. 开启JVM重用,对于大量小文件job,开启JVM重用会减少45%运行时间
    JVM重用原理:一个Map运行在一个JVM上,开启重用的话,该Map在JVM上运行完毕之后,JVM继运行其他Map。因为小文件的运行时间很短,可能比JVM的开关时间还短,省去了开关时间就可以大量的提高效率。
    具体的参数设置:mapreduce.job.jvm.numtasks值在10~20之间。

=======================================END