Flume 概述Flume 是 Hadoop 生态圈子中的一个重要组件,在上一课时中提过,它是一个分布式的、高可靠的、高可用的日志采集工具。Flume 具有基于流式数据的简单灵活的架构,同时兼具高可靠性、高可用机制和故障转移机制。当我们使用 Flume 收集数据的速度超过下游的写入速度时,Flume 会自动做调整,使得数据的采集和推送能够平稳进行。Flume 支持多路径采集、多管道数据接入和多管道
转载
2024-03-26 04:51:44
57阅读
一,背景公司需要用到flink和kafka来处理大数据,对于一个没有接触过这两个东西的40岁程序员,决定自学一下,用了两天的时间终于实现了flink和kafka的对接,目标就是要向kafka输入 "时间戳,温度,设备ID",然后在flink里面按照时间戳分组,再按照设备ID计算的在一个时间段内的温度平均值。 二,运行环境window 10, kafka 2.1.1, flink 1.7.
转载
2024-03-01 15:52:11
308阅读
目的最近会不定期抽空整理flink的相关知识,整理的逻辑大纲就是下面自己画的学习框架图。如果有大佬发现下面知识框架有问题也欢迎指出。因为FlinkKafkaConsumer 是flink自己对kafka的数据读取进行管理的中间件,与kafka自带的进度管理方式稍有不同,而kafka又是flink最常用的resource和sink之一。这里对FlinkKafkaConsumer的管理机制进行学习记录
转载
2024-04-23 11:46:31
81阅读
目录记录一次流处理引擎选择的过程1、Spark Streaming2、Kafka Streaming3、Flink最后 记录一次流处理引擎选择的过程先描述下项目需求,要处理的消息来源为RabbitMQ的队列A,队列A的数据是10万个点位(物联网采集点)数据每秒一次推送产生的,现在的需求是:要新增一些虚拟计算点位,点位建立规则是已有物理点位的计算表达式,比如V001为P001+2*P002。每个计
转载
2023-07-11 16:58:28
118阅读
本文是《Flink的sink实战》系列的第二篇,《Flink的sink实战之一:初探》对sink有了基本的了解,本章来体验将数据sink到kafka的操作;版本和环境准备本次实战的环境和版本如下:JDK:1.8.0_211Flink:1.9.2Maven:3.6.0操作系统:macOS Catalina 10.15.3 (MacBook Pro 13-inch, 2018)IDEA:2018.3.
转载
2024-03-21 11:25:15
83阅读
Standalone Cluster HA前面我们配置的 Standalone 集群实际上只有一个 JobManager,此时是存在单点故障的,所以官方提供了 Standalone Cluster HA 模式来实现集群高可用。1. 前置条件在 Standalone Cluster HA 模式下,集群可以由多个 JobManager,但只有一个处于 active 状态,其余的则处于备用状态,Flin
转载
2023-12-19 21:24:53
108阅读
目录1. CDC简介1.1. 什么是CDC1.2. CDC的种类1.3. Flink-CDC2. 基于DataStream方式的FlinkCDC应用2.1. 导入依赖2.2. 编写代码2.2.1. 主类-从业务库中获取数据并写入到kafka中2.2.2. 自定义反序列化器2.2.3. 各方法参数详解3. FlinkSQL方式的应用1. CDC简介1.1. 什么是CDC Change Da
Flink提供了Exactly once特性,是依赖于带有barrier的分布式快照+可部分重发的数据源功能实现的。而分布式快照中,就保存了operator的状态信息。 Flink的失败恢复依赖于 检查点机制 + 可部分重发的数据源。 检查点机制机制:checkpoint定期触发,产生快照,快照中记录了:当前检查点开始时数据源(例如Kafka)中消息的offset。记
转载
2024-02-28 19:55:23
34阅读
Kafka 数据管道是流计算系统中最常用的数据源(Source)和数据目的(Sink)。用户可以把流数据导入到 Kafka 的某个 Topic 中,通过 Flink 算子进行处理后,输出到相同或不同 Kafka 示例的另一个 Topic。Kafka 支持同一个 Topic 多分区读写,数据可以从多个分区读入,也可以写入到多个分区,以提供更
转载
2023-08-03 18:49:04
285阅读
Flink学习-DataStream-KafkaConnector摘要本文主要介绍Flink1.9中的DataStream之KafkaConnector,大部分内容翻译、整理自官网。以后有实际demo会更新。可参考kafka-connector如果关注Table API & SQL中的KafkaConnector,请参考Flink学习3-API介绍-SQL1 Maven依赖FlinkKaf
转载
2024-03-19 02:42:02
40阅读
前言之前有文章 《Flink 写入数据到 Kafka 写过 Flink 将处理后的数据后发到 Kafka 消息队列中去,当然我们常用的消息队列可不止这一种,还有 RocketMQ、RabbitMQ 等,刚好 Flink 也支持将数据写入到 RabbitMQ,所以今天我们就来写篇文章讲讲如何将 Flink 处理后的数据写入到 RabbitMQ。前提准备安装 RabbitMQ这里我直接用 doc
转载
2024-03-22 08:34:07
90阅读
Flink的Checkpoint和savepoint的区别和作用一、Flink的checkpointflink的checkpoint是异步的、分布式的、轻量级的,将同一时间点的task/operator的状态数据全局统一快照处理,包括用户自定义的keyed state和operator state 当未来程序出现问题,可以基于保存的快照容错。checkpoint的原理A:flink会在输入的数据集
转载
2024-02-20 10:38:34
73阅读
Flink对接KafKa消费分词统计Demo1. 环境准备环境需要:KafKa_2.12(1.0.0以上)Java_1.8(java 8/11)Flink1.1 KafKa通过Apache KafKa官网下载KafKa,目前版本最新为KafKa_2.12-2.60,KafKa安装包内已包含Zookeeper下载完成后在本地解压可以看到文件夹KafKa_2.12-2.60 KafKa目录
转载
2024-03-27 16:31:15
267阅读
1、外部数据是怎样的接入到kafka的?外部数据接入到kafka的流程示意图:(1)接入数据流程(1)producer先从broker-list的节点中找到该partition的leader;(2)然后producer将消息发送给作为leader的partition;(3)leader收到消息后,将消息写入本地log;(4)followers从leader中pull消息,实现replication
转载
2023-09-02 22:18:08
112阅读
利用flink从带有kerberos认证kafka中接收消息,每分钟统计各项指标,如每分钟接收的记录数,金额。在统计的时候要累计前一分钟的累计量。统计值 写入mysql,用来前端展示,同时要把消息存入hadoop平台,要在hive建立表 现将把主要逻辑展示如下 1、从指定的kafka的topic接收数据 2、统计数据写入mysql 3、接收的数据写入hdfs,在hive中建外部表的方式,这样速度会
转载
2023-08-16 14:13:54
146阅读
顺序保证难点本文主要分析 CDC 业务场景中任务级顺序保证,技术选型为:debezium、kafka、flink,其构成了顺序保证中至关重要的每一环,应该充分考虑、分析各组件的对于顺序的支持。首先 debezium 作为采集组件,其分别为 schema topic 和 data topic 提供了不同的时间字段,如下图 schema topic 中提供了事件时间,data topic 中提供了事件
转载
2024-04-25 16:47:07
227阅读
1.什么是Exactly-Once 恰好处理一次的意思。不管在处理的时候是否有异常发生,计算的结果都一样。即使在发现机器或者软件故障时,都不会出现数据丢失以及重复处理的情况。(就是每条数据只会被处理一次) Flink 中哪些
转载
2024-02-12 08:22:43
27阅读
还是一样,要先引入依赖,在pom.xml<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-table-planner_2.12</artifactId>
<version>1.10.1</version>
&
转载
2024-02-11 14:35:12
40阅读
最近使用Flink的时候注意到一个不大不小的问题,就是关于Flink中使用FlinkKafkaConsumer时并行度设置的问题,这个算子的并行度最好是等于kafka中使用的topic的分区数。大于或者小于分区数都是有问题的,小于这个分区数不能够充分利用kafka的并发性能,大于分区数则会导致算子线程空
转载
2023-11-23 23:54:30
82阅读
文章目录Kafka的Exactly Once1.Kafka Producer1) 副本数据同步策略:2) ISR3) ack 应答机制4) 故障处理细节Exactly Once 语义(精准一次性)Producer 事务2.Kafka Consumer分析2.1消费方式:2.2、分区分配策略2.3、offsetConsumer 事务Flink的Exactly OnceCheckpoint机制che
转载
2024-02-02 14:11:24
51阅读