Flume概述

大数据需要干三件事,海量数据的存储,传输和计算。

Flume是目前进行日志数据(文本文件)传输使用最为广泛的框架。

Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume 基于流式架构,灵活简单

由于Hadoop深受客户欢迎,许多公司都推出了各自版本的Hadoop,也有一些公司则围绕Hadoop开发产品。在Hadoop生态系统中,规模最大、知名度最高的公司则是Cloudera。

Flume的逻辑架构由几部分组成 flume的结构_Source

Flume组成架构如下:

Flume的逻辑架构由几部分组成 flume的结构_数据_02

Agent:是一个 JVM 进程,它以事件的形式将数据从源头送至目的,是 Flume 数据传输的基本单元。

Agent 主要有 3 个部分组成,Source、Channel、Sink。

Source是负责接收数据到 Flume Agent 的组件。

Source 组件可以处理各种类型、各种格式的日志数据,包括 avro(RPC通信框架)、spooling directory、exec、taildir(监控目录变化)、netcat(监控网络端口)、kafka等。

Channel 是位于 Source 和 Sink 之间的缓冲区。因此,Channel 允许 Source 和 Sink 运作在不同的速率上。 Channel 是线程安全的,可以同时处理几个 Source 的写入操作和几个 Sink的读取操作。
Flume 自带两种 Channel:Memory Channel 和 File Channel,还有别的Channel,如JDBC Channe、KafKa Channel、自定义等。

Memory Channel 是内存中的队列。Memory Channel 在不需要关心数据丢失的情景下适用。如果需要关心数据丢失,那么 Memory Channel 就不应该使用,因为程序死亡、机器宕机或者重启都会导致数据丢失。

File Channel 将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据。

Sink不断地轮询 Channel 中的事件且批量地移除它们,并将这些事件批量写入到存储或索引系统、或者被发送到另一个 Flume Agent。

Sink 是完全事务性的。在从 Channel 批量删除数据之前,每个 Sink 用 Channel 启动一个事务。批量事件一旦成功写出到存储系统或下一个 Flume Agent,Sink 就利用 Channel 提交事务。事务一旦被提交,该 Channel 从自己的内部缓冲区删除事件。Sink 组件目的地包括 hdfs、hive、logger、avro、file roll、HBase、kafka、自定义等。

Event,传输单元,Flume 数据传输的基本单元,以事件的形式将数据从源头送至目的地。

Flume的逻辑架构由几部分组成 flume的结构_数据_03

Flume拓扑结构有:

Flume的逻辑架构由几部分组成 flume的结构_数据_04


Flume的逻辑架构由几部分组成 flume的结构_Source_05


Flume的逻辑架构由几部分组成 flume的结构_Source_06