Yarn 工作架构

最近随着集群大家开始频繁使用集群,资源调度的问题越发的凸显出来。需要更加深入的了解 yarn 资源调度的原理,以及到底在背后做了一些什么事情。

来看一下下面这张图。

yarn 资源调优 公式_大数据

yarn 里面有两个大的角色,这个也很容易在 yarn 里面的配置看到。

一个是 Resource Manager 类似于 Master 角色负责任务分配,他会往 Node Manager 分配一个 App Master。 然后 App Master 会向 Resource Manager 申请资源。这个时候 Resource Manager 会给这个任务开始分配 Container 用于实际处理这个任务。

这里我们可以仔细看下这张图。

这里左边来了两个需要计算调度的任务。我们可以认为一个是 hive 表的 sqoop 同步任务,另外一个是 hive 的 mapreduce 查询任务。

Client 到 Resource Manager 这里的线代表的是 Job Submission 任务提交。之后 ResourceMnagager 会为任务分配 Application Master。

这个 Application Master 就是该任务的代理。 Application Master 会直接通过 Resource Request 向 ResourceManager 进行状态汇报。 同时所有被 Application Master 分配的 Container 都会定时向 Application Master 上报 MapReduce Status 也就是任务的运行状态。同时 Container 也会向 NodeManager 汇报。

下面我们来看下在 Resource Manager 里面包含了什么

yarn 资源调优 公式_大数据_02

图上的 1a 是负责任务调度。1b 是维护当前的任务的,比如当前提交的那些活儿。1c 是一个 rpc 服务,所做的工作就是响应 Node Manager.

正好我看的这个介绍的视频穿插介绍了 spark on yarn cluster 的架构,顺手贴个图吧.

yarn 资源调优 公式_资源调度_03

CDH 静态动态资源分配 

下面让我们来梳理一下 Yarn 资源调度的几种模式

1. FIFO Scheduler 先到先得      谁先提交,先就优先获得更多的资源执行。

2. Capacity Scheduler 容器管理

3. Fair Scheduler 公平调度管理    前提:假设任务具有相同的优先级,平均分配资源。可以指定任务权重,权重任务大的可以获得更多的资源。以内存为资源分配条件。

4. DRF 主导资源公平                          和 Fair Scheduler 相比该资源调度将会在考虑内存的同时也考虑 CPU 需求作为调度的条件。

通常默认 CDH 会设置 DRF 作为默认的调度器。

由于担心 CDH 和 社区版的会有不同下面一部分内容将重点参考 CDH 官方文档。

我们先从最上层谈起

CDH 的 CM 提供了两种方法去分配集群资源给各个服务,分别是静态分配和动态分配。

yarn 资源调优 公式_hadoop_04

静态资源分配使用了 linux 内核提供的 cgroups ,使用cgroups静态分配资源可以通过单个静态服务池向导进行配置。您可以按总资源的百分比分配服务,向导将配置cgroups。

yarn 资源调优 公式_hive_05

另外一种分配是动态资源分配。

动态资源池分配资源在 CM 里面支持对 YARN 和 Impala 进行配置。

我们可以通过设置动态资源池来限制一些资源的使用。我看了一下文档感觉这一部分需要高亮的地方可以提一下。

A scheduling rule defines when a configuration set is active. The configurations in the configuration set are propagated to the fair scheduler allocation file as required by the schedule. The updated files are stored in the YARN ResourceManager configuration directory /var/run/cloudera-scm-agent/process/nn-yarn-RESOURCEMANAGER on the host running the ResourceManager role. See Server and Client Configuration.

1. 配置的修改会保存在 yarn 的 ResourceManager 部署节点的 /var/run/cloudera-scm-agent/process/nn-yarn-RESOURCEMANAGER 目录下。我们可以通过 ls -lst 找到最新配置。

2. 我们可以配置资源池为父池,但是一旦被配置为父池子就不能挂具体执行的任务了。具体的任务只能挂在子池子上。子池子上的资源策略要小于等于父池子的策略。如果超过的话以父池为准。

下面我配置了一个动态资源池给我们一个 spark 常驻服务使用。

yarn 资源调优 公式_hive_06

yarn 资源调优 公式_大数据_07

其实看上去很简单。

我这里要解决的需求就是单独隔离这一类任务,只需要设置这个池子,然后如果需要进行更精细的资源控制,只需要将这个池子设置成父池子,再设置相应的子池子就好了。

而且移动已经在执行任务的队列方法也非常方便只需要使用命令


hadoop2.0及以上版本可以通过下面命令  yarn application -movetoqueue application_1478676388082_963529 -queue root.etl 


Steady Fair | ShareInstantaneous Fair Share 的区别

Yarn中的steady fair share值和Instaneous Fair Share值都代表了当前分配给这个队列的最大资源值,也是队列在任何时候资源使用量不可以超过的值 ,但是他们存在区别。

对于steady fair share,是一个静态值,是Yarn根据每个队列的minShare、maxShare和weight的配置计算得到的理论上应该分配给这个队列的最大资源,它与这个队列当前是否有app正在运行无关,只和我们在fair-scheduler.xml中的配置有关。

而Instaneous fair share则不同,它是根据当前集群中队列的运行状态的变化而实时变化的,即,如果一个队列上没有任何一个app在运行,即这个队列是inactive队列,那么,这个队列的instaneous fair share值是0,剩余的active队列会对集群资源进行瓜分,显然,如果集群中有队列从active变为inactive,那么剩余这些队列瓜分到的instaneous fair shared都会随之变大,反之,如果有一个队列从inactive变为active,则剩余每个队列的instaneous fair share会随之变小,即instaneous fair share会变小。

参数介绍

最后我想以 yarn ui 界面上的一些参数解释来结束这篇文章

yarn 资源调优 公式_hadoop_08

正常我们会看到自己执行的任务在 yarn 的管理界面长这个样子。

Queue: 代表正在哪个队列里面执行,如果是 CDH 的动态资源分配模式下会对应一个资源池的概念。

% of Queue: 占资源池里面多少资源百分比。

% of Cluster: 占整个集群资源的百分比。

yarn 资源调优 公式_大数据_09

schema 的界面会是这个样子

FairShare: 代表最多可以占用的内存数量。

更多的细节就要看代码了,比如各种个样的调度器算法。本篇文章不会这么深入,不过之后有机会也会看一看。

---------------------------------参数调优----------------------------------


yarn.nodemanager.resource.memory-mb 调整每台物理机器可以被调度的内存资源 比如四个节点就会是 * 4 yarn.scheduler.maximum-allocation-mb 调整单个任务可以分配的最大内存资源。一般这个 cloudera 推荐调整为最大配置机器的可分配内存数 yarn.nodemanager.resource.cpu-vcores 调整每台物理机器可以被调度的 cpu 资源 比如四个节点就会是 * 4