Flume定义

Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构,灵活简单

flume 上传文件到hdfs flume filechannel_flume 上传文件到hdfs

Flume的优点

  1. 可以和任意存储进程集成。
  2. 输入的的数据速率大于写入目的存储的速率,flume会进行缓冲,减小hdfs的压力。
  3. flume中的事务基于channel,使用了两个事务模型(sender + receiver),确保消息被可靠发送。
    Flume使用两个独立的事务分别负责从soucrce到channel,以及从channel到sink的事件传递。一旦事务中所有的数据全部成功提交到channel,那么source才认为该数据读取完成。同理,只有成功被sink写出去的数据,才会从channel中移除。

Flume组成架构

flume 上传文件到hdfs flume filechannel_flume 上传文件到hdfs_02


flume 上传文件到hdfs flume filechannel_flume 上传文件到hdfs_03

  1. Source数据输入端的常见类型有:spooling directory、 exec 、syslog、 avro、netcat等。
  2. Channel是位于Source和Sink之间的缓冲区。
    Flume自带两种Channel:Memory Channel和File Channel。
    Memory Channel是基于内存缓存,在不需要关心数据丢失的情景下适用。
    File Channel是Flume的持久化Channel。系统宕机不会丢失数据。
  3. Sink组件常见的目的地包括HDFS、Kafka、logger、avro、File、自定义。
  4. Put事务流程
    doPut:将批数据先写入临时缓冲区putList
    doCommit:检查channel内存队列是否足够合并。
    doRollback:channel内存队列空间不足,回滚数据
  5. Take事务
    doTake:先将数据取到临时缓冲区takeList
    doCommit:如果数据全部发送成功,则清除临时缓冲区takeList
    doRollback:数据发送过程中如果出现异常,rollback将临时缓冲区takeList中的数据归还给channel内存队列。

Agent

Agent是一个JVM进程,它以事件的形式将数据从源头送至目的。
Agent主要有3个部分组成,Source、Channel、Sink

Source

Source是负责接收数据到Flume Agent的组件。Source组件可以处理各种类型、各种格式的日志数据,包括avro、thrift、exec、jms、spooling directory、netcat、sequence generator、syslog、http、legacy。

Channel

Channel是位于Source和Sink之间的缓冲区。因此,Channel允许Source和Sink运作在不同的速率上。Channel是线程安全的,可以同时处理几个Source的写入操作和几个Sink的读取操作。
Flume自带两种Channel:Memory Channel和File Channel。
Memory Channel是内存中的队列。Memory Channel在不需要关心数据丢失的情景下适用。如果需要关心数据丢失,那么Memory Channel就不应该使用,因为程序死亡、机器宕机或者重启都会导致数据丢失。
File Channel将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据。

Sink

Sink不断地轮询Channel中的事件且批量地移除它们,并将这些事件批量写入到存储或索引系统、或者被发送到另一个Flume Agent。
Sink是完全事务性的。在从Channel批量删除数据之前,每个Sink用Channel启动一个事务。批量事件一旦成功写出到存储系统或下一个Flume Agent,Sink就利用Channel提交事务。事务一旦被提交,该Channel从自己的内部缓冲区删除事件。
Sink组件目的地包括hdfs、logger、avro、thrift、ipc、file、null、HBase、solr、自定义。

Event

传输单元,Flume数据传输的基本单元,以事件的形式将数据从源头送至目的地。 Event由可选的header和载有数据的一个byte array 构成。Header是容纳了key-value字符串对的HashMap。

flume 上传文件到hdfs flume filechannel_java_04

Flume拓扑结构

flume 上传文件到hdfs flume filechannel_大数据_05


这种模式是将多个flume给顺序连接起来了,从最初的source开始到最终sink传送的目的存储系统。此模式不建议桥接过多的flume数量, flume数量过多不仅会影响传输速率,而且一旦传输过程中某个节点flume宕机,会影响整个传输系统。

flume 上传文件到hdfs flume filechannel_大数据_06


Flume支持将事件流向一个或者多个目的地。这种模式将数据源复制到多个channel中,每个channel都有相同的数据,sink可以选择传送的不同的目的地

flume 上传文件到hdfs flume filechannel_大数据_07


Flume支持使用将多个sink逻辑上分到一个sink组,flume将数据发送到不同的sink,主要解决负载均衡和故障转移问题

flume 上传文件到hdfs flume filechannel_hadoop_08


这种模式是我们最常见的,也非常实用,日常web应用通常分布在上百个服务器,大者甚至上千个、上万个服务器。产生的日志,处理起来也非常麻烦。用flume的这种组合方式能很好的解决这一问题,每台服务器部署一个flume采集日志,传送到一个集中收集日志的flume,再由此flume上传到hdfs、hive、hbase、jms等,进行日志分析

Flume Agent内部原理

flume 上传文件到hdfs flume filechannel_flume 上传文件到hdfs_09

Flume安装地址

  1. Flume官网地址
    http://flume.apache.org/
  2. 文档查看地址
    http://flume.apache.org/FlumeUserGuide.html
  3. 下载地址
    http://archive.apache.org/dist/flume/

安装部署

  1. 将apache-flume-1.7.0-bin.tar.gz上传到linux的/opt/software目录下
  2. 解压apache-flume-1.7.0-bin.tar.gz到/opt/module/目录下
[liujh@hadoop102 software]$ tar -zxf apache-flume-1.7.0-bin.tar.gz -C /opt/module/
  1. 修改apache-flume-1.7.0-bin的名称为flume
[liujh@hadoop102 module]$ mv apache-flume-1.7.0-bin flume
  1. 将flume/conf下的flume-env.sh.template文件修改为flume-env.sh,并配置flume-env.sh文件
[liujh@hadoop102 conf]$ mv flume-env.sh.template flume-env.sh
[liujh@hadoop102 conf]$ vi flume-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144