文章主要内容
- MapReduce速度慢的原因
- MapReduce优化方法(各个阶段的优化和参数调优)
- HDFS小文件优化方法
Hadoop之优化策略
1.MapReduce速度慢的原因
MapReduce程序效率的瓶颈在于两点:
- 计算机性能
- IO操作优化
a. 数据倾斜
b. Map和Reduce数设置不合理
c. Map运行时间太长,导致Reduce等待过久
d. 小文件过多
e. 大量的不可分块的超大文件
f. 溢写的次数过多
g. merge(归并)的次数过多
2.MapReduce优化方法
MapReduce优化方法主要从六个方面考虑:数据输入、Map阶段、Reduce阶段、IO传输、数据倾斜问题和常用的调优参数。
2.1 数据输入阶段
- 合并小文件:在执行MR任务前将小文件进行合并,大量的小文件会产生大量的Map任务,增大Map任务装载次数,而任务的装载比较耗时,从而导致MR运行较慢。
- 采用CombineTextInputFormat来作为输入,解决输入端大量小文件场景。
2.2 Map阶段
- 减小溢写的次数:通过调整io.sort.mb及sort.spill.percent参数值,增大触发溢写的内存上限,减少溢写的次数,从而减少磁盘IO
- 减少合并(merge)次数:通过调整io.sort.factor参数,增大merge的文件数目,减少merge的次数,从而缩短MR处理时间。但是这样可能会消耗更多的内存资源
- 在Map之后,不影响业务逻辑的情况下,先进性Combine处理,减少IO
2.3 Reduce阶段
- 合理的设置Map和Reduce数:两个都不能设置太少,也不能设置太多。太少,会导致Task等待;太多,会导致Map、Reduce任务间资源竞争,造成处理超时等错误。
- 设置Map、Reduce共存:调整slowstart.completedmaps参数,使Map运行到一定程度后,Reduce也开始运行,减少Reduce的等待时间。
- 规避使用Reduce:如果不需要使用Reduce可以ReduceTask的数量设置为0;因为Reduce在用于连接数据集的时候会产生大量的网络消耗。
- 合理设置Reduce端的buffer:默认情况下,数据达到一个阈值的时候,Buffer中的数据就会写入磁盘,然后Reduce会从磁盘中获得所有的数据。也就是说,buffer和Reduce是没有直接关联的,所以这中间会出现多次写磁盘—>读磁盘的过程,导致运行速度变得很慢。可以通过参数来配置,使得Buffer中的一部分数据可以直接输送到Reduce,从而减少IO开销:mapred.job.reduce.input.buffer.percent,默认为0.0。当值大于0的时候,会保留指定比例的内存读Buffer中的数据直接拿给Reduce使用。这样一来,设置Buffer需要内存,读取数据需要内存,Reduce计算也需要内存,所以还是要根据实际情况来看。
2.4 I/O传输
- 采用数据压缩方式,减少网络IO的时间。例如:安装Snappy和LZO压缩编码器。
- 使用SequenceFile二进制文件
2.5 数据倾斜问题
2.5.1 数据倾斜现象:
- 数据频率倾斜:某一个区域的数据量要远大于其他区域
- 数据大小的倾斜:部分记录的大小远远大于平均值。
2.5.2 解决方案:
- 可以通过对原始数据信息进行抽样,先看抽样信息中的分区是否合理,如果不合理,可以通过增加随机数、设置hashcode值等方式来把数据量大的数据集打散。
- 自定义分区:基本上就算手动打散的意思
- Combine
- 采用MapJoin,尽量避免ReduceJoin
2.6 常用的调优参数
2.6.1 资源相关参数
在MR应用程序中修改配置就可以生效(mapred-default.xml),可在TaskAttemptImpl中查看,通过继承修改默认值。
配置参数 | 参数说明 |
mapreduce.map.memory.mb | 一个MapTask可使用的资源上限(MB),默认为1024,如果MapTask实际使用的资源超过该值,就会被杀死 |
mapreduce.reduce.memory.mb | 一个ReduceTask可使用的资源上限(单位MB),默认为1024,如果MapTask实际使用的资源超过该值,就会被杀死 |
mapreduce.map.cpu.vcores | 每个MapTask可使用的最多cpu core数目,默认为1 |
mapreduce.reduce.cpu.vcores | 每个ReduceTask可使用的最多cpu core数目,默认为1 |
mapreduce.reduce.shuffle.parallelcopies | 每个Reduce去Map中读取数据的并行数,默认为5 |
mapreduce.reduce.shuffle.merge.percent | Buffer中的数据达到多少比例开始写入磁盘,默认为0.66 |
mapreduce.reduce.shuffle.input.buffer.percent | Buffer大小占Reduce可用内存的比例,默认为0.7 |
mapreduce.reduce.input.buffer.percent | 指定多少比例的内存用来存放Buffer中的数据,默认是0 |
2.6.2 Yarn的相关参数
应该在yarn启动之前就配置在服务器的配置文件中,才能生效(yarn-default.xml)
配置参数 | 参数说明 |
yarn.scheduler.minimum-allocation-mb | 给应用程序Container分配的最小内存,默认值:1024 |
yarn.scheduler.maximum-allocation-mb | 给应用程序Container分配的最大内存,默认值:8192 |
yarn.scheduler.minimum-allocation-vcores | 每个Container申请的最小CPU核数,默认值:1 |
yarn.scheduler.maximum-allocation-vcores | 每个Container申请的最大CPU核数,默认值:32 |
yarn.nodemanager.resource.memeory-mb | 给Containers分配的最大物理内存,默认值8192 |
2.6.3 shuffle性能优化的相关参数
配置参数 | 参数说明 |
mapreduce.task.io.sort.mb | shuffle的环形缓冲区大小,默认100m |
mapreduce.map.sort.spill.percent | 环形缓冲区溢出的阈值,默认80% |
2.6.4 容错相关的参数(MapReduce性能优化)
配置参数 | 参数说明 |
mapreduce.map.maxattempts | 每个MapTask最大重试次数,一旦重试参数超过该值,则认为MapTask运行失败,默认为4 |
mapreduce.reduce.maxattempts | 每个ReduceTask最大重试次数,一旦重试参数超过该值,则认为ReduceTask运行失败,默认为4 |
mapreduce.task.timeout | Task超时时间:如果一个Task在一定时间内没有任何进入,既不会读取新的数据,也没有输出数据,则认为该Task处于block状态,为了防止它永远处于这个状态,则设定了这个超时时间,默认值为600000。 |
关于超时时间:如果程序对某些数据数据的处理时间过长,应该把这个值调大,该参数过小会出现下面的报错提醒:
3.HDFS小文件优化方法
3.1 HDFS小文件弊端
HDFS上每个文件都要在NameNoode上建立一个索引,这个索引的大小约为150byte。如果小文件多,一方面会大量占用NameNode的内存,另一方面就是索引文件过大是的索引速度降低。
3.2 HDFS小文件解决方案
- 在采集数据的时候,就将小文件或小批数据合成大文件再上传HDFS。
可采用Sequenc File,这是由一系列的二进制KV组成,如果key为文件名,value为文件内容,这样可以把大批小文件合并成一个大文件(对外是一个文件,对内是一个个键值对)。 - 在业务处理之前,在HDFS上使用MapReduce程序对小文件进行合并。
可使用Hadoop Archive,这是一个高效的将小文件放入HDFS块中的文件存档工具,它能将多个小文件打包成一个HAR文件(对外是一个整体,对内依旧是一个个的小文件),减少了NameNode的内存使用。 - 在MapReduce处理时,可采用CombineFileInputFormat提高效率。
CombineFileInputFormat用于将多个小文件合并成一个单独的Split(切片),另外,它会考虑数据的存储位置。 - 开启JVM重用,对于大量小文件job,开启JVM重用会减少45%运行时间
JVM重用原理:一个Map运行在一个JVM上,开启重用的话,该Map在JVM上运行完毕之后,JVM继运行其他Map。因为小文件的运行时间很短,可能比JVM的开关时间还短,省去了开关时间就可以大量的提高效率。
具体的参数设置:mapreduce.job.jvm.numtasks值在10~20之间。
=======================================END