动手搭建Flink的开发环境,快速使用Java和Scala语言开发第一个基于Flink的批处理和流式处理的应用程序。


​​相关源码​​

​​下载安装​​

Apache Flink实战(二) - 第一个Flink应用程序_应用程序

brew install apache-flink

Apache Flink实战(二) - 第一个Flink应用程序_flink_02

1 需求描述

Flink开发批处理应用程序

需求:词频统计(word count)

一个文件,统计文件中每个单词出现的次数

分隔符是\t

统计结果我们直接打印在控制台(生产上肯定是Sink到目的地)

实现:

Flink + Java

Flink + Scala

2 Java开发之环境准备

2.1 Maven构建

2.1.1 Requirements

唯一的要求是Maven 3.0.4(或更高版本)和 Java 8.x 安装

2.1.2 Create Projec

使用以下命令之一​创建项目​:

maven archetype

$ mvn archetype:generate                               \
-DarchetypeGroupId=org.apache.flink \
-DarchetypeArtifactId=flink-quickstart-java \
-DarchetypeVersion=1.8.0


这允许您为新创建的项目命名。 它将以交互方式询问您groupId,artifactId和包名称。
Apache Flink实战(二) - 第一个Flink应用程序_java_03


Run the ​quickstart script

$ curl https://flink.apache.org/q/quickstart.sh | bash -s 1.8.0

Apache Flink实战(二) - 第一个Flink应用程序_java_04

2.1.3 Inspect Project


您的工作目录中将有一个新目录。 如果您使用了curl方法,则该目录称为quickstart。 否则,它具有artifactId的名称:
Apache Flink实战(二) - 第一个Flink应用程序_应用程序_05
使用IDEA打开该项目即可!



示例项目是一个Maven项目,它包含两个类:StreamingJob和BatchJob是DataStream和DataSet程序的基本框架程序。
主要方法是程序的入口点,既可用于IDE测试/执行,也可用于正确部署。
建议将此项目导入IDE以进行开发和测试。 IntelliJ IDEA支持开箱即用的Maven项目。
不建议Eclipse


请注意:对于Flink,Java的默认JVM堆可能太小。 你必须手动增加它。在IntelliJ IDEA中,推荐的更改JVM选项的方法来自Help | 编辑自定义VM选项菜单 -Xmx800m

2.1.4 Build Project

如果要构建/打包项目,请转到项目目录并运行

mvn clean package

或者使用插件

Apache Flink实战(二) - 第一个Flink应用程序_flink_06

Apache Flink实战(二) - 第一个Flink应用程序_java_07

您将找到包含应用程序的JAR文件,以及可能已作为依赖项添加到应用程序的连接器和库:

target / <artifact-id>  -  <version> .jar

Apache Flink实战(二) - 第一个Flink应用程序_应用程序_08

注意:如果您使用与StreamingJob不同的类作为应用程序的主类/入口点,我们建议您相应地更改pom.xml文件中的mainClass设置。 这样,Flink可以从JAR文件运行应用程序,而无需另外指定主类。

3 公式型编程


  • step 1 : set up the batch execution environment
  • step 2 : Start with getting some data from the environment, like

env.readTextFile(textPath);
  • step 3 : 开发业务逻辑的核心代码
    transform the resulting DataSet using operations,like
.filter()
.flatMap()
.join()
.coGroup()
  • step 4 : execute program

4 Flink批处理应用Java开发之功能实现



在相应的目录下建立文本
Apache Flink实战(二) - 第一个Flink应用程序_flink_09



测试代码
Apache Flink实战(二) - 第一个Flink应用程序_java_10



成功读取
Apache Flink实战(二) - 第一个Flink应用程序_java_11



4.1 功能拆解

1)读取数据

Hello JavaEdge

2)每一行的数据按照指定的分隔符拆分

Hello

JavaEdge

3)为每一个单词赋上次数为1

(Hello,1)

(JavaEdge,1)

4) 合并操作

groupBy


  • 代码
    Apache Flink实战(二) - 第一个Flink应用程序_flink_12
  • 结果
    Apache Flink实战(二) - 第一个Flink应用程序_应用程序_13

5 Scala开发之环境准备



要求与Java环境基本类似,不再赘述
Apache Flink实战(二) - 第一个Flink应用程序_应用程序_14
Apache Flink实战(二) - 第一个Flink应用程序_java_15



Maven构建
Apache Flink实战(二) - 第一个Flink应用程序_应用程序_16



6 批处理应用Scala功能实现


  • 实现代码
    Apache Flink实战(二) - 第一个Flink应用程序_java_17
  • 内容正确打印
    Apache Flink实战(二) - 第一个Flink应用程序_flink_18

Apache Flink实战(二) - 第一个Flink应用程序_flink_19

Apache Flink实战(二) - 第一个Flink应用程序_flink_20

7 实时处理应用Java开发之功能实现

  • 代码Apache Flink实战(二) - 第一个Flink应用程序_java_21

可能遇到拒绝连接,记得

nc -lk 9999


清除运行结果
Apache Flink实战(二) - 第一个Flink应用程序_flink_22



socket数据
Apache Flink实战(二) - 第一个Flink应用程序_java_23



结果
Apache Flink实战(二) - 第一个Flink应用程序_flink_24



9 Flink实时处理应用Java开发之代码重构

如何才能突破端口被限制呢,需要如下重构:


  • 传入参数​​args​Apache Flink实战(二) - 第一个Flink应用程序_应用程序_25
  • 获得参数
    Apache Flink实战(二) - 第一个Flink应用程序_应用程序_26

10 实时处理应用Scala开发之代码重构

Apache Flink实战(二) - 第一个Flink应用程序_应用程序_27

11 开发过程中依赖的注意事项

Configuring Dependencies, Connectors, Libraries

每个Flink应用程序都依赖于一组Flink库。 至少,应用程序依赖于Flink API。 许多应用程序还依赖于某些连接器库(如Kafka,Cassandra等)。 运行Flink应用程序时(在分布式部署中或在IDE中进行测试),Flink运行时库也必须可用。

X 交流学习

Apache Flink实战(二) - 第一个Flink应用程序_java_28


​博客​


​Github​