一、流程示意图
1、MapReduce流程示意图1
2、MapReduce流程示意图2
二、流程示意图详解
- 流程详解
- 上面的流程是整个MapReduce最全工作流程,但是Shuffle过程只是从第7步开始到第16步结束,具体Shuffle过程详解,如下:
1) MapTask收集我们的map()方法输出的kv对,放到内存缓冲区中
2) 从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件
3) 多个溢出文件会被合并成大的溢出文件
4) 在溢出过程及合并的过程中,都要调用Partitioner进行分区和针对key进行排序
5) ReduceTask根据自己的分区号,去各个MapTask机器上取相应的结果分区数据
6) ReduceTask会取到同一个分区的来自不同MapTask的结果文件,ReduceTask会将这些文件再进行合并(归并排序)
7) 合并成大文件后,Shuffle的过程也就结束了,后面进入ReduceTask的逻辑运算过程(从文件中取出一个一个的键值对Group,调用用户自定义的reduce()方法) - 注意
- Shuffle中的缓冲区大小会影响到MapReduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。
1) 缓冲区的大小可以通过参数调整,参数:io.sort.mb默认100M。 - 源码解析流程
context.write(k, NullWritable.get());
output.write(key, value);
collector.collect(key, value,partitioner.getPartition(key, value, partitions));
HashPartitioner();
collect()
close()
collect.flush()
sortAndSpill()
sort() QuickSort
mergeParts();
collector.close();
三、MapReduce中各个阶段的分析
原文链接:MapReduce中各个阶段的分析
1、示意图
2、在MapReduce的各个阶段详解
- ①排序:调用的是快速排序法。
- ②分区:调用的是hashpartitioner分区。达到80%之后会溢写磁盘。
- ③分区中hashpartitioner分区的时候是按照key进行hash取值的。相同的hash值会在一个分区中,取几个分区可以人为设定。
- ④排序的时候的两个依据是partition和key两个作为依据的。同一个partition中是按照key进行排序的。
- 在溢写到磁盘之后会merge,归并排序,将多个小文件merge成大文件的。所以合并之后的大文件还是分区,并且分区内部是有序的。
- 最后调用outputformat会将内容写入到文件中。