Flink 运行时的组件介绍

Flink 运行时架构主要包括四个不同的组件,它们会在运行流处理应用程序时协同工作(因为 Flink 是用 Java 和 Scala 实现的,所以所有组件都会运行在 Java 虚拟机上)

一、作业管理器 (JobManager)

JobManager控制一个应用程序执行的主进程叫JobMaster,提交的每一个应用程序都会被一个不同的 JobMaster 所控制执行。
JobMaster 会先接收到要执行的应用程序,这个应用程序会包括: 作业图(JobGraph)、逻辑数据流图(logical dataflow graph)和打包了所有的类、库和其它资源的 JAR 包。JobMaster 会把 JobGraph 转换成一个物理层面的数据流图,这个图被叫做 “执行图”(ExecutionGraph),包含了所有可以并发执行的任务。

JobMaster 会向资源管理器(ResourceManager)请求执行任务必要的资源,也就是任务管理器TaskManager)上的插槽(slot)。一旦它获取到了足够的资源,就会将执行分发到真正运行它们的TaskManager 上。

而在运行过程中,JobMaster 会负责所有需要中央协调的操作,比如说检查点(checkpoints)的协调。

二、资源管理器(ResourceManager)

主要负责管理任务管理器(TaskManager)的插槽(slot),TaskManger 插槽是 Flink中定义的处理资源单元。
Flink 为不同的环境和资源管理工具提供了不同资源管理器,比如YARN、Mesos、K8s,以及standalone 部署。

当 JobManager 申请插槽资源时,ResourceManager会将有空闲插槽的 TaskManager 分配JobManager。如果 ResourceManager 没有足够的插槽来满足 JobManager的请求,它还可以向资源提供平台发起会话,以提供启动 TaskManager进程的容器。

另外,ResourceManager 还负责终止空闲的 TaskManager,释放计算资源。

三、任务管理器(TaskManager)

通常在 Flink 中会有多个 TaskManager 在运行,每一个 TaskManager都包含了一定数量的插槽(slots)。插槽的数量限制了 TaskManager 能够执行的任务数量。
启动之后,TaskManager 会向资源管理器注册它的插槽;收到资源管理器的指令后, TaskManager 就会将一个或者多个插槽提供给 JobManager 调用。JobManager 就可以向插槽分配任务(tasks)来执行了。在执行过程中,一个 TaskManager 可以跟其它运行同一应用程序的 TaskManager 交换数据。

四、分发器(Dispatcher)

可以跨作业运行,它为应用提交提供了 REST 接口。当一个应用被提交执行时,分发器就会启动并将应用移交给一个 JobManager。由于是 REST 接口,所以 Dispatcher 可以作为集群的一个 HTTP 接入点,这样就能够不受防火墙阻挡。Dispatcher 也会启动一个 Web UI,用来方便地展示和监控作业执行的信息。Dispatcher 在架构中可能并不是必需的,这取决于应用提交运行的方式。

任务提交流程

单机模式下的任务调用流程

搭建flink集群 flink组件介绍_flink

YARN 会话模式任务提交流程

搭建flink集群 flink组件介绍_搭建flink集群_02

YARN单作业模式下的调用流程

搭建flink集群 flink组件介绍_插槽_03


Flink 任务提交后

  • 1 Flink Client 向 HDFS 上传 Flink 的 Jar 包和配置,之后向 Yarn的 ResourceManager 提交任务,ResourceManager 分配 Container 资源并通知对应的NodeManager 启动 ApplicationMaster(对应Flink中的JobManager),
  • 2 ApplicationMaster 启动后加载 Flink 的 Jar 包和配置构建环境,然后启动 JobManager,之后 ApplicationMaster向 ResourceManager申请资源启动 TaskManager
  • 3 ResourceManager 分配 Container 资 源 后 ,由ApplicationMaster 通知资源所在节点的 NodeManager启动TaskManager , NodeManager 加载 Flink 的ar 包和配置构建环境并启动 TaskManager,TaskManager启动后向 JobManager 发送心跳包,并等待JobManager 向其分配任务。

任务调度原理

搭建flink集群 flink组件介绍_java_04

当 Flink 集 群 启 动 后,首先会启动一个 JobManger 和一个或多个的TaskManager。
由 Client 提交任务给 JobManager,JobManager 再调度任务到各个TaskManager 去执行,然后 TaskManager 将心跳和统计信息汇报给 JobManager。

TaskManager 之间以流的形式进行数据的传输。上述三者均为独立的 JVM 进程。

JobManager 主 要 负 责 调 度 Job 并 协 调 Task 做 checkpoint,从Client 处接收到 Job 和 JAR 包等资源后,会生成优化后的执行计划,并以 Task 的单元调度到各个 TaskManager去执行。

TaskManager 在启动的时候就设置好了槽位数(Slot),每个slot能启动一个Task,Task为线程。从
JobManager 处接收需要部署的 Task,部署启动后,与自己的上游建立 Netty 连接,接收数据并处理。