Flume 支持的数据源种类有很多,可以来自directory、http、kafka等。Flume提供了Source组件用来采集数据源。常见的 Source 有:(1)avro source:监听 Avro 端口来接收外部 avro 客户端的事件流。avro-source接收到的是经过avro序列化后的
转载 2024-03-04 09:46:42
79阅读
1、下载源代码 去官网http://www.apache.org/下载最新稳定版的源代码   本案例中下载的是httpd-2.2.14.tar.gz   2、解压软件包 tar zxvf httpd-2.2.14.tar.gz cd /usr/src/httpd-2.2.14   3、配置编译选项 ./configure --prefix=/usr
原创 2009-12-16 16:53:15
1850阅读
3评论
Apache Flume 介绍在一个完整的离线大数据处理系统中,除了 hdfs+mapreduce+hive 组成分析系统的核心之外, 还需要数据采集、结果数据导出、任务调度等不可或缺的辅助系统,而这些辅助工具在hadoop 生态体系中都有便捷的开源框架,如图所示:1.概述Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的软件。Flume 的核心是把数据从数据源(source)收集过来,再将收集到的数据送到指定的目的地(sink)。为了保证输送的过
原创 2021-06-21 10:28:40
230阅读
Apache Flume 介绍在一个完整的离线大数据处理系统中,除了 hdfs+mapreduce+hive 组成分析系统的核心之外, 还需要数据采集、结果数据导出、任务调度等不可或缺的辅助系统,而这些辅助工具在hadoop 生态体系中都有便捷的开源框架,如图所示:1.概述Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的软件。Flume 的核心是把数据从数据源(source)收集过来,再将收集到的数据送到指定的目的地(sink)。为了保证输送的过
原创 2022-03-04 18:56:26
64阅读
1、提交JobMapReduce程序框架请参考 @Override public int run(String[] args) throws Exception { //读取配置文件 Configuration conf = getConf(); //设置参数 conf.set("fs.defaultFS", "hdfs:/
Apache(音译为阿帕奇)是世界使用排名第一的Web服务器软件。它可以运行在几乎所有广泛使用的计算机平台上,由于其跨平台和安全性被广泛使用,是最流行的Web服务器端软件之一。它快速、可靠并且可通过简单的API扩充,将Perl/Python等解释器编译到服务器中。
推荐 原创 2022-12-03 23:29:23
3160阅读
2点赞
1、将源代码拷贝到指定目录中,并进入该目录。 #cp  /media/cdrom/httpd-2.0.59.tar.gz  /usr/local/src #cd /usr/local/src 2、使用tar释放源代码安装包,并进入释放后的目录。 #tar zxvf httpd-2.0.59.tar.gz #cd httpd-2.0.59 3、使用./configur
原创 2010-03-03 22:31:04
527阅读
当设计Flume数据流程图时,决定使用什么类型的channel将是至关重要的。在写这篇文章是,当前有几个channel可供选择,分别是Memory Channel, JDBC Channel , File Channel,Psuedo Transaction Channel。比较常见的是前三种channel。具体使用那种channel,需要根据具体的使用场景。这里我详细讲解File Channe
转载 2024-10-09 11:38:11
15阅读
Avro Source简介:监听Avro端口并从外部的Avro客户端接收事件流,多个flume agent可以通过Avro形成一个组织。Property Name Default Descriptionchannels –  type – 需要配置为Avrobind – 需要监听的主机名或ip地址port – 监听的端口threads – 工作的最大线程数selector.type
原创 2015-10-27 16:58:42
857阅读
地的 Flume agent 或者让本地 Flume agent 去 tail -f 日志文件,日志
转载 2014-01-28 10:57:00
122阅读
2评论
本篇分析载入配置文件后各个组件是怎样运行的? 载入完配置文件订阅者Application类会收到订阅信息运行: @Subscribe public synchronized void handleConfigurationEvent(MaterializedConfiguration conf) {
转载 2019-05-08 11:23:00
397阅读
2评论
从bin/flume 这个shell脚本能够看到Flume的起始于org.apache.flume.node.Application类,这是flume的main函数所在。   main方法首先会先解析shell命令,假设指定的配置文件不存在就甩出异常。   依据命令中含有"no-reload-conf"參数,决定採用那种载入配置文件方式:一、没有此參数。会动态载入配置文件,默认每30秒
转载 2017-05-29 10:58:00
150阅读
1点赞
2评论
configure - 配置源代码树 configure脚本配置Apache源代码树并且将其安装到指定的平台上。丰富的选项允许你根据自己的特定状况和特定需求对Apache进行定制。 这个脚本位于源代码树的根目录下,并且只能用于类Unix操作系统。要了解其他平台的信息,参见:针对特定平台的说明文档。 语法 你必须在源代码树的根目录下调用configure脚本,语法如下:
转载 精选 2012-03-26 14:34:14
370阅读
本篇译者:金步国(其他作品) apache configure - 配置源代码
转载 2012-01-11 17:57:49
394阅读
今天我们通过阅读Flume-NG的源码来看看Flume的整个启动流程,废话不多说,翠花,上源码!!1 主类也是启动类在这里我贴出Application中跟启动有关的方法,其他你们可以自己看源码,毕竟源码解析解的是思路。org.apache.flume.node.Application/*主函数*/ public static void main(String[] args) { tr
本节分析配置文件的解析,即PollingPropertiesFileConfigurationProvider.FileWatcherRunnable.run中的eventBus.post(getConfiguration())。分析getConfiguration()方法。此方法在Abstract...
转载 2015-09-25 12:30:00
89阅读
2评论
本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建。 1 环境介绍一台阿里云ECS服务器:master操作系统:CentOS 7.3Hadoop:hadoop-2.7.3.tar.gz Java: jdk-8u77-linux-x64.tar.gz Flumeapache-flume-1.8.0-bin.tar.gz
转载 2023-05-18 13:24:46
65阅读
Apache Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的软件。Flume的核心是把数据从数据源(source)收集过来,再将收集到的数据送到指定的目的地(sink)。为了保证输送的过程一定成功,在送到目的地(sink)之前,会先缓存数据(channel),待数据真正到达目的地(sink)后,flume在删除自己缓存的数据。  Flume支持各类
转载 9月前
142阅读
1评论
设计 FileChannel是基于内存队列和WAL设计的。每次事务都是根据事物类型(Take和Put)写到WAL,队列也做相应的修改。每次事务被commited,都会调用fsync确保events被存储在磁盘文件,同时指向该event的指针被放到队列中。这里的队列服务就像其他队列一样:它管理着什么被sink消费。在Take期间,该event的指针从队列被删除。直接从WAL读这个event。由于今天我们有大量可用的RAM,从操作系统的文件缓存中读取也是经常发生的。 崩溃后,通过重放WALs,队列位置能恢复到崩溃前同样的状态,而那些没有commited的事务被丢弃。重放WALs相当耗时,因... Read More
转载 2013-05-30 20:24:00
83阅读
2评论
一、Flume介绍  Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。设计目标:可靠性当节点出现故障时,日志能够被传送到其他节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:end-to-end(收到数据agent首先将even
  • 1
  • 2
  • 3
  • 4
  • 5