1、简介

        Flink核心是一个流式的数据流执行引擎,其针对数据流的分布式计算提供了数据分布、数据通信以及容错机制等功能。基于流执行引擎,Flink提供了诸多更高抽象层的API以便用户编写分布式任务:

        DataSet API, 对静态数据进行批处理操作,将静态数据抽象成分布式的数据集,用户可以方便地使用Flink提供的各种操作符对分布式数据集进行处理,支持Java、Scala和Python。

        DataStream API,对数据流进行流处理操作,将流式的数据抽象成分布式的数据流,用户可以方便地对分布式数据流进行各种操作,支持Java和Scala。

        Table API,对结构化数据进行查询操作,将结构化数据抽象成关系表,并通过类SQL的DSL对关系表进行各种查询操作,支持Java和Scala。

此外,Flink还针对特定的应用领域提供了领域库,例如:

        Flink ML,Flink的机器学习库,提供了机器学习Pipelines API并实现了多种机器学习算法。

Gelly,Flink的图计算库,提供了图计算的相关API及多种图计算算法实现。

统一的批处理与流处理系统

看似一个特例,实则不然——Spark Streaming采用了一种micro-batch的架构,即把输入的数据流切分成细粒度的batch,并为每一个batch数据提交一个批处理的Spark任务,所以Spark Streaming本质上还是基于Spark批处理系统对流式数据进行处理,和Apache Storm、Apache Smaza等完全流式的数据处理方式完全不同。通过其灵活的执行引擎,Flink能够同时支持批处理任务与流处理任务。

        在执行引擎这一层,流处理系统与批处理系统最大不同在于节点间的数据传输方式。

        对于一个流处理系统,其节点间数据传输的标准模型是:当一条数据被处理完成后,序列化到缓存中,然后立刻通过网络传输到下一个节点,由下一个节点继续处理。

        而对于一个批处理系统,其节点间数据传输的标准模型是:当一条数据被处理完成后,序列化到缓存中,并不会立刻通过网络传输到下一个节点,当缓存写满,就持久化到本地硬盘上,当所有数据都被处理完成后,才开始将处理后的数据通过网络传输到下一个节点。

        这两种数据传输模式是两个极端,对应的是流处理系统对低延迟的要求和批处理系统对高吞吐量的要求。Flink的执行引擎采用了一种十分灵活的方式,同时支持了这两种数据传输模型。Flink以固定的缓存块为单位进行网络数据传输,用户可以通过缓存块超时值指定缓存块的传输时机。如果缓存块的超时值为0,则Flink的数据传输方式类似上文所提到流处理系统的标准模型,此时系统可以获得最低的处理延迟。如果缓存块的超时值为无限大,则Flink的数据传输方式类似上文所提到批处理系统的标准模型,此时系统可以获得最高的吞吐量。

        同时缓存块的超时值也可以设置为0到无限大之间的任意值。

        缓存块的超时阈值越小,则Flink流处理执行引擎的数据处理延迟越低,但吞吐量也会降低,

反之亦然。通过调整缓存块的超时阈值,用户可根据需求灵活地权衡系统延迟和吞吐量。

2、CentOS7.5搭建Flink1.6.1分布式集群

2.1、Flink的下载

安装包下载地址:Downloads | Apache Flink  ,选择对应Hadoop的Flink版本下载

[itest@hadoop01 software]$ wget http://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.6.1/flink-1.6.1-bin-hadoop27-scala_2.11.tgz

[itest@hadoop01 software]$ ll

-rw-rw-r-- 1 itest itest 301867081 Sep 15 15:47 flink-1.6.1-bin-hadoop27-scala_2.11.tgz

Flink 有三种部署模式,分别是 Local、Standalone Cluster 和 Yarn Cluster。

2.2、 Local模式

        对于 Local 模式来说,JobManager 和 TaskManager 会公用一个 JVM 来完成 Workload。如果要验证一个简单的应用,Local 模式是最方便的。实际应用中大多使用 Standalone 或者 Yarn Cluster,而local模式只是将安装包解压启动(./bin/start-local.sh)即可,在这里不在演示。

2.3、Standalone 模式

快速入门教程地址:Apache Flink 1.6 Documentation: Quickstart

2.3.1、软件要求

  • Java 1.8.x或更高版本,
  • ssh(必须运行sshd才能使用管理远程组件的Flink脚本)

集群部署规划

节点名称

 master

worker

zookeeper

hadoop01

 master


zookeeper

hadoop02

 master

 worker

zookeeper

hadoop03


 worker

zookeeper

2.3.2、解压

[itest@hadoop01 software]$ tar zxvf flink-1.6.1-bin-hadoop27-scala_2.11.tgz -C /opt/module/

[itest@hadoop01 software]$ cd /opt/module/

[itest@hadoop01 module]$ ll

drwxr-xr-x 8 itest itest 125 Sep 15 04:47 flink-1.6.1

2.3.3、 修改配置文件

[itest@hadoop01 conf]$ ls

flink-conf.yaml       log4j-console.properties  log4j-yarn-session.properties  logback.xml       masters  sql-client-defaults.yaml

log4j-cli.properties  log4j.properties          logback-console.xml            logback-yarn.xml  slaves   zoo.cfg

修改flink/conf/masters,slaves,flink-conf.yaml

[itest@hadoop01 conf]$ sudo vi masters

hadoop01:8081

[itest@hadoop01 conf]$ sudo vi slaves

hadoop02

hadoop03

[itest@hadoop01 conf]$ sudo vi flink-conf.yaml

taskmanager.numberOfTaskSlots:2   //52行

jobmanager.rpc.address: hadoop01  //33行

可选配置:

  • 每个JobManager(jobmanager.heap.mb)的可用内存量,
  • 每个TaskManager(taskmanager.heap.mb)的可用内存量,
  • 每台机器的可用CPU数量(taskmanager.numberOfTaskSlots),
  • 集群中的CPU总数(parallelism.default)和
  • 临时目录(taskmanager.tmp.dirs)

2.3.4、拷贝安装包到各节点

[itest@hadoop01 module]$ scp -r flink-1.6.1/ itest@hadoop02:`pwd`

[itest@hadoop01 module]$ scp -r flink-1.6.1/ itest@hadoop03:`pwd`

2.3.5、 配置环境变量

配置所有节点Flink的环境变量

[itest@hadoop01 flink-1.6.1]$ sudo vi /etc/profile

export FLINK_HOME=/opt/module/flink-1.6.1

export PATH=$PATH:$FLINK_HOME/bin

[itest@hadoop01 flink-1.6.1]$ source /etc/profile

2.3.6、启动flink

[itest@hadoop01 flink-1.6.1]$ ./bin/start-cluster.sh

Starting cluster.

Starting standalonesession daemon on host hadoop01.

Starting taskexecutor daemon on host hadoop02.

Starting taskexecutor daemon on host hadoop03.

jps查看进程

flink 官方测试数据 flink性能测试工具_大数据

2.3.7、  WebUI查看

http://hadoop01:8081

flink 官方测试数据 flink性能测试工具_flink 官方测试数据_02

2.3.8、 Flink 的 HA

        首先,我们需要知道 Flink 有两种部署的模式,分别是 Standalone 以及 Yarn Cluster 模式。对于 Standalone 来说,Flink 必须依赖于 Zookeeper 来实现 JobManager 的 HA(Zookeeper 已经成为了大部分开源框架 HA 必不可少的模块)。在 Zookeeper 的帮助下,一个 Standalone 的 Flink 集群会同时有多个活着的 JobManager,其中只有一个处于工作状态,其他处于 Standby 状态。当工作中的 JobManager 失去连接后(如宕机或 Crash),Zookeeper 会从 Standby 中选举新的 JobManager 来接管 Flink 集群。

        对于 Yarn Cluaster 模式来说,Flink 就要依靠 Yarn 本身来对 JobManager 做 HA 了。其实这里完全是 Yarn 的机制。对于 Yarn Cluster 模式来说,JobManager 和 TaskManager 都是被 Yarn 启动在 Yarn 的 Container 中。此时的 JobManager,其实应该称之为 Flink Application Master。也就说它的故障恢复,就完全依靠着 Yarn 中的 ResourceManager(和 MapReduce 的 AppMaster 一样)。由于完全依赖了 Yarn,因此不同版本的 Yarn 可能会有细微的差异。这里不再做深究。

1) 修改配置文件

修改flink-conf.yaml,HA模式下,jobmanager不需要指定,在master file中配置,由zookeeper选出leader与standby。

#jobmanager.rpc.address: hadoop01

high-availability:zookeeper   //73行

#指定高可用模式(必须) //88行

high-availability.zookeeper.quorum:hadoop01:2181,hadoop02:2181,hadoop03:2181

#ZooKeeper仲裁是ZooKeeper服务器的复制组,它提供分布式协调服务(必须) //82行

high-availability.storageDir:hdfs:///flink/ha/       

#JobManager元数据保存在文件系统storageDir中,只有指向此状态的指针存储在ZooKeeper中(必须) //没有

high-availability.zookeeper.path.root:/flink         

#根ZooKeeper节点,在该节点下放置所有集群节点(推荐) //没有

high-availability.cluster-id:/flinkCluster           

#自定义集群(推荐)

state.backend: filesystem

state.checkpoints.dir: hdfs:///flink/checkpoints

state.savepoints.dir: hdfs:///flink/savepoints

修改conf/zoo.cfg

server.1=hadoop01:2888:3888

server.2=hadoop02:2888:3888

server.3=hadoop03:2888:3888

修改conf/masters

hadoop01:8081

hadoop02:8081

修改slaves

hadoop02

hadoop03

同步配置文件conf到各节点

2) 启动HA

先启动zookeeper集群各节点(测试环境中也可以用Flink自带的start-zookeeper-quorum.sh),启动dfs ,再启动flink

[itest@hadoop01 flink-1.6.1]$ start-cluster.sh

WebUI查看,这是会自动产生一个主Master,如下

flink 官方测试数据 flink性能测试工具_flink 官方测试数据_03

3) 验证HA

手动杀死hadoop02上的master,此时,hadoop01上的备用master转为主mater。

4)手动将JobManager / TaskManager实例添加到群集

        可以使用bin/jobmanager.sh和bin/taskmanager.sh脚本将JobManager和TaskManager实例添加到正在运行的集群中。

添加JobManager

bin/jobmanager.sh ((start|start-foreground) [host] [webui-port])|stop|stop-all

添加TaskManager

bin/taskmanager.sh start|start-foreground|stop|stop-all

[itest@hadoop02 flink-1.6.1]$ jobmanager.sh start hadoop02

新添加的为从master。

2.3.9、 运行测试任务

[itest@hadoop01 flink-1.6.1]$ flink run -m hadoop01:8081 ./examples/batch/WordCount.jar --input /opt/wcinput/wc.txt --output /opt/wcoutput/

[itest@hadoop01 flink-1.6.1]$ bin/flink run -m hadoop01:8081 ./examples/batch/WordCount.jar --input hdfs:///emp.csv --output hdfs:///user/itest/output2

flink 官方测试数据 flink性能测试工具_大数据_04

3、Yarn Cluster模式

3.1、 引入

        在一个企业中,为了最大化的利用集群资源,一般都会在一个集群中同时运行多种类型的 Workload。因此 Flink 也支持在 Yarn 上面运行。首先,让我们了解下 Yarn 和 Flink 的关系。

flink 官方测试数据 flink性能测试工具_flink_05

在图中可以看出,Flink 与 Yarn 的关系与 MapReduce 和 Yarn 的关系是一样的。Flink 通过 Yarn 的接口实现了自己的 App Master。当在 Yarn 中部署了 Flink,Yarn 就会用自己的 Container 来启动 Flink 的 JobManager(也就是 App Master)和 TaskManager。

        启动新的Flink YARN会话时,客户端首先检查所请求的资源(容器和内存)是否可用。之后,它将包含Flink和配置的jar上传到HDFS(步骤1)。

        客户端的下一步是请求(步骤2)YARN容器以启动ApplicationMaster(步骤3)。由于客户端将配置和jar文件注册为容器的资源,因此在该特定机器上运行的YARN的NodeManager将负责准备容器(例如,下载文件)。完成后,将启动ApplicationMaster(AM)。

        该JobManager和AM在同一容器中运行。一旦它们成功启动,AM就知道JobManager(它自己的主机)的地址。它正在为TaskManagers生成一个新的Flink配置文件(以便它们可以连接到JobManager)。该文件也上传到HDFS。此外,AM容器还提供Flink的Web界面。YARN代码分配的所有端口都是临时端口。这允许用户并行执行多个Flink YARN会话。

        之后,AM开始为Flink的TaskManagers分配容器,这将从HDFS下载jar文件和修改后的配置。完成这些步骤后,即可建立Flink并准备接受作业。

3.2、 修改环境变量

export  HADOOP_CONF_DIR= /opt/module/hadoop-2.7.6/etc/hadoop

3.3、 部署启动 

[itest@hadoop01 flink-1.6.1]$ yarn-session.sh -d -s 1 -tm 800 -n 2

-n : TaskManager的数量,相当于executor的数量

-s : 每个JobManager的core的数量,executor-cores。建议将slot的数量设置每台机器的处理器数量

-tm : 每个TaskManager的内存大小,executor-memory

-jm : JobManager的内存大小,driver-memory

        上面的命令的意思是,同时向Yarn申请3个container,其中 2 个 Container 启动 TaskManager(-n 2),每个 TaskManager 拥有两个 Task Slot(-s 2),并且向每个 TaskManager 的 Container 申请 800M 的内存,以及一个ApplicationMaster(Job Manager)。

flink 官方测试数据 flink性能测试工具_大数据_06

        Flink部署到Yarn Cluster后,会显示Job Manager的连接细节信息。

Flink on Yarn会覆盖下面几个参数,如果不希望改变配置文件中的参数,可以动态的通过-D选项指定,如 -Dfs.overwrite-files=true -Dtaskmanager.network.numberOfBuffers=16368

jobmanager.rpc.address:因为JobManager会经常分配到不同的机器上

taskmanager.tmp.dirs:使用Yarn提供的tmp目录

parallelism.default:如果有指定slot个数的情况下

yarn-session.sh会挂起进程,所以可以通过在终端使用CTRL+C或输入stop停止yarn-session。

        如果不希望Flink Yarn client长期运行,Flink提供了一种detached YARN session,启动时候加上参数-d或—detached

在上面的命令成功后,我们就可以在 Yarn Application 页面看到 Flink 的纪录。如下图。

flink 官方测试数据 flink性能测试工具_流处理_07

        如果在虚拟机中测试,可能会遇到错误。这里需要注意内存的大小,Flink 向 Yarn 会申请多个 Container,但是 Yarn 的配置可能限制了 Container 所能申请的内存大小,甚至 Yarn 本身所管理的内存就很小。这样很可能无法正常启动 TaskManager,尤其当指定多个 TaskManager 的时候。因此,在启动 Flink 之后,需要去 Flink 的页面中检查下 Flink 的状态。这里可以从 RM 的页面中,直接跳转(点击 Tracking UI)。这时候 Flink 的页面如图

flink 官方测试数据 flink性能测试工具_flink_08

yarn-session.sh启动命令参数如下:

[itest@hadoop01 flink-1.6.1]$ yarn-session.sh --help

Usage:

   Required

     -n,--container <arg>   Number of YARN container to allocate (=Number of Task Managers)

   Optional

     -D <property=value>             use value for given property

     -d,--detached                   If present, runs the job in detached mode

     -h,--help                       Help for the Yarn session CLI.

     -id,--applicationId <arg>       Attach to running YARN session

     -j,--jar <arg>                  Path to Flink jar file

     -jm,--jobManagerMemory <arg>    Memory for JobManager Container with optional unit (default: MB)

     -m,--jobmanager <arg>           Address of the JobManager (master) to which to connect. Use this flag to connect to a different JobManager than the one specified i

n the configuration.     -n,--container <arg>            Number of YARN container to allocate (=Number of Task Managers)

     -nl,--nodeLabel <arg>           Specify YARN node label for the YARN application

     -nm,--name <arg>                Set a custom name for the application on YARN

     -q,--query                      Display available YARN resources (memory, cores)

     -qu,--queue <arg>               Specify YARN queue.

     -s,--slots <arg>                Number of slots per TaskManager

     -st,--streaming                 Start Flink in streaming mode

     -t,--ship <arg>                 Ship files in the specified directory (t for transfer)

     -tm,--taskManagerMemory <arg>   Memory per TaskManager Container with optional unit (default: MB)

     -yd,--yarndetached              If present, runs the job in detached mode (deprecated; use non-YARN specific option instead)

     -z,--zookeeperNamespace <arg>   Namespace to create the Zookeeper sub-paths for high availability mode

3.4、 提交任务

之后,我们可以通过这种方式提交我们的任务

[itest@hadoop01 flink-1.6.1]$ ./bin/flink run -m yarn-cluster -yn 2 ./examples/batch/WordCount.jar --input /opt/wcinput/wc.txt --output /opt/wcoutput/

bin/flink run -m yarn-cluster -yn2 examples/batch/WordCount.jar --input /input/ --output /Andy

以上命令在参数前加上y前缀,-yn表示TaskManager个数。

在这个模式下,同样可以使用-m yarn-cluster提交一个"运行后即焚"的detached yarn(-yd)作业到yarn cluster。

3.5、 停止yarn cluster

yarn application -kill application_1539058959130_0001

3.6、Yarn模式的HA

应用最大尝试次数(yarn-site.xml),您必须配置为尝试应用的最大数量的设置yarn-site.xml,当前YARN版本的默认值为2(表示允许单个JobManager失败)。

<property>

  <name>yarn.resourcemanager.am.max-attempts</name>

  <value>4</value>

  <description>The maximum number of application master execution attempts</description>

</property>

申请尝试(flink-conf.yaml),您还必须配置最大尝试次数conf/flink-conf.yaml: yarn.application-attempts:10

示例:高度可用的YARN会话

  1. 配置HA模式和zookeeper法定人数在conf/flink-conf.yaml:
  2. high-availability: zookeeper
  3. high-availability.zookeeper.quorum: hadoop01:2181,hadoop02:2181,hadoop03:2181
  4. high-availability.storageDir: hdfs:///flink/recovery
  5. high-availability.zookeeper.path.root: /flink
  6. yarn.application-attempts: 10
  7. 配置ZooKeeper的服务器中conf/zoo.cfg(目前它只是可以运行每台机器的单一的ZooKeeper服务器):
  8. server.1=hadoop01:2888:3888
  9. server.2=hadoop02:2888:3888
  10. server.3=hadoop03:2888:3888
  11. 启动ZooKeeper仲裁:
  12. $ bin / start-zookeeper-quorum.sh
  13. 启动HA群集:
  14. $ bin /yarn-session.sh -n 2

4、错误异常

1.身份认证失败

[root@hadoop01 flink-1.6.1]# flink run examples/streaming/SocketWindowWordCount.jar --port 9000

Starting execution of program



------------------------------------------------------------

 The program finished with the following exception:



org.apache.flink.client.program.ProgramInvocationException: Job failed. (JobID: b7a99ac5db242290413dbebe32ba52b0)

    at org.apache.flink.client.program.rest.RestClusterClient.submitJob(RestClusterClient.java:267)

    at org.apache.flink.client.program.ClusterClient.run(ClusterClient.java:486)

    at org.apache.flink.streaming.api.environment.StreamContextEnvironment.execute(StreamContextEnvironment.java:66)

    at org.apache.flink.streaming.examples.socket.SocketWindowWordCount.main(SocketWindowWordCount.java:92)

    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)

    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)

    at java.lang.reflect.Method.invoke(Method.java:498)

    at org.apache.flink.client.program.PackagedProgram.callMainMethod(PackagedProgram.java:529)

    at org.apache.flink.client.program.PackagedProgram.invokeInteractiveModeForExecution(PackagedProgram.java:421)

    at org.apache.flink.client.program.ClusterClient.run(ClusterClient.java:426)

    at org.apache.flink.client.cli.CliFrontend.executeProgram(CliFrontend.java:804)

    at org.apache.flink.client.cli.CliFrontend.runProgram(CliFrontend.java:280)

    at org.apache.flink.client.cli.CliFrontend.run(CliFrontend.java:215)

    at org.apache.flink.client.cli.CliFrontend.parseParameters(CliFrontend.java:1044)

    at org.apache.flink.client.cli.CliFrontend.lambda$main$11(CliFrontend.java:1120)

    at java.security.AccessController.doPrivileged(Native Method)

    at javax.security.auth.Subject.doAs(Subject.java:422)

    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1754)

    at org.apache.flink.runtime.security.HadoopSecurityContext.runSecured(HadoopSecurityContext.java:41)

    at org.apache.flink.client.cli.CliFrontend.main(CliFrontend.java:1120)

Caused by: java.net.ConnectException: Connection refused (Connection refused)

    at java.net.PlainSocketImpl.socketConnect(Native Method)

    at java.net.AbstractPlainSocketImpl.doConnect(AbstractPlainSocketImpl.java:350)

    at java.net.AbstractPlainSocketImpl.connectToAddress(AbstractPlainSocketImpl.java:206)

    at java.net.AbstractPlainSocketImpl.connect(AbstractPlainSocketImpl.java:188)

    at java.net.SocksSocketImpl.connect(SocksSocketImpl.java:392)

    at java.net.Socket.connect(Socket.java:589)

    at org.apache.flink.streaming.api.functions.source.SocketTextStreamFunction.run(SocketTextStreamFunction.java:96)

    at org.apache.flink.streaming.api.operators.StreamSource.run(StreamSource.java:87)

    at org.apache.flink.streaming.api.operators.StreamSource.run(StreamSource.java:56)

    at org.apache.flink.streaming.runtime.tasks.SourceStreamTask.run(SourceStreamTask.java:99)

    at org.apache.flink.streaming.runtime.tasks.StreamTask.invoke(StreamTask.java:300)

    at org.apache.flink.runtime.taskmanager.Task.run(Task.java:711)

    at java.lang.Thread.run(Thread.java:748)

通过查看日志,发现有如下报错

2018-10-20 02:32:19,668 ERROR org.apache.flink.shaded.curator.org.apache.curator.ConnectionState  - Authentication failed

解决法案:添加定时任务认证kerberos

5、Flink开发IDEA环境搭建与测试

先虚拟机联网,然后执行yum -y install nc

nc是用来打开端口的工具

然后nc -l 9000  

5.1、pom文件设置

<properties>

        <maven.compiler.source>1.8</maven.compiler.source>

        <maven.compiler.target>1.8</maven.compiler.target>

        <encoding>UTF-8</encoding>

        <scala.version>2.11.12</scala.version>

        <scala.binary.version>2.11</scala.binary.version>

        <hadoop.version>2.8.4</hadoop.version>

        <flink.version>1.6.1</flink.version>

    </properties>

    <dependencies>

        <dependency>

            <groupId>org.scala-lang</groupId>

            <artifactId>scala-library</artifactId>

            <version>${scala.version}</version>

        </dependency>

        <dependency>

            <groupId>org.apache.flink</groupId>

            <artifactId>flink-java</artifactId>

            <version>${flink.version}</version>

        </dependency>

        <dependency>

            <groupId>org.apache.flink</groupId>

            <artifactId>flink-streaming-java_${scala.binary.version}</artifactId>

            <version>${flink.version}</version>

        </dependency>

        <dependency>

            <groupId>org.apache.flink</groupId>

            <artifactId>flink-scala_${scala.binary.version}</artifactId>

            <version>${flink.version}</version>

        </dependency>

        <dependency>

            <groupId>org.apache.flink</groupId>

            <artifactId>flink-streaming-scala_${scala.binary.version}</artifactId>

            <version>${flink.version}</version>

        </dependency>

        <dependency>

            <groupId>org.apache.flink</groupId>

            <artifactId>flink-table_${scala.binary.version}</artifactId>

            <version>${flink.version}</version>

        </dependency>

        <dependency>

            <groupId>org.apache.flink</groupId>

            <artifactId>flink-clients_${scala.binary.version}</artifactId>

            <version>${flink.version}</version>

        </dependency>

        <dependency>

            <groupId>org.apache.flink</groupId>

            <artifactId>flink-connector-kafka-0.10_${scala.binary.version}</artifactId>

            <version>${flink.version}</version>

        </dependency>

        <dependency>

            <groupId>org.apache.hadoop</groupId>

            <artifactId>hadoop-client</artifactId>

            <version>${hadoop.version}</version>

        </dependency>

        <dependency>

            <groupId>mysql</groupId>

            <artifactId>mysql-connector-java</artifactId>

            <version>5.1.38</version>

        </dependency>

        <dependency>

            <groupId>com.alibaba</groupId>

            <artifactId>fastjson</artifactId>

            <version>1.2.22</version>

        </dependency>

    </dependencies>

    <build>

        <sourceDirectory>src/main/scala</sourceDirectory>

        <testSourceDirectory>src/test/scala</testSourceDirectory>

        <plugins>

            <plugin>

                <groupId>net.alchim31.maven</groupId>

                <artifactId>scala-maven-plugin</artifactId>

                <version>3.2.0</version>

                <executions>

                    <execution>

                        <goals>

                            <goal>compile</goal>

                            <goal>testCompile</goal>

                        </goals>

                        <configuration>

                            <args>

                                <!-- <arg>-make:transitive</arg> -->

                                <arg>-dependencyfile</arg>

                                <arg>${project.build.directory}/.scala_dependencies</arg>

                            </args>

                        </configuration>

                    </execution>

                </executions>

            </plugin>

            <plugin>

                <groupId>org.apache.maven.plugins</groupId>

                <artifactId>maven-surefire-plugin</artifactId>

                <version>2.18.1</version>

                <configuration>

                    <useFile>false</useFile>

                    <disableXmlReport>true</disableXmlReport>

                    <includes>

                        <include>**/*Test.*</include>

                        <include>**/*Suite.*</include>

                    </includes>

                </configuration>

            </plugin>

            <plugin>

                <groupId>org.apache.maven.plugins</groupId>

                <artifactId>maven-shade-plugin</artifactId>

                <version>3.0.0</version>

                <executions>

                    <execution>

                        <phase>package</phase>

                        <goals>

                            <goal>shade</goal>

                        </goals>

                        <configuration>

                            <filters>

                                <filter>

                                    <artifact>*:*</artifact>

                                    <excludes>

                                        <exclude>META-INF/*.SF</exclude>

                                        <exclude>META-INF/*.DSA</exclude>

                                        <exclude>META-INF/*.RSA</exclude>

                                    </excludes>

                                </filter>

                            </filters>

                            <transformers>

                                <transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">

                                    <mainClass>org.apache.spark.WordCount</mainClass>

                                </transformer>

                            </transformers>

                        </configuration>

                    </execution>

                </executions>

            </plugin>

        </plugins>

    </build>

5.2、flink开发流程

        Flink具有特殊类DataSet并DataStream在程序中表示数据。您可以将它们视为可以包含重复项的不可变数据集合。在DataSet数据有限的情况下,对于一个DataStream元素的数量可以是无界的。

        这些集合在某些关键方面与常规Java集合不同。首先,它们是不可变的,这意味着一旦创建它们就无法添加或删除元素。你也不能简单地检查里面的元素。

        集合最初通过在弗林克程序添加源创建和新的集合从这些通过将它们使用API方法如衍生map,filter等等。

        Flink程序看起来像是转换数据集合的常规程序。每个程序包含相同的基本部分:

1.获取execution environment,

final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

2.加载/创建初始化数据

DataStream<String> text = env.readTextFile("file:///path/to/file");

3.指定此数据的转换

val mapped = input.map { x => x.toInt }

4.指定放置计算结果的位置

writeAsText(String path)

print()

5.触发程序执行

在local模式下执行程序

execute()

将程序达成jar运行在线上

./bin/flink run \

-m node21:8081 \

./examples/batch/WordCount.jar \

--input  hdfs:///user/itest/input/wc.txt \

--output  hdfs:///user/itest/output2  \

5.3、Wordcount案例

5.3.1、Scala代码

import org.apache.flink.api.java.utils.ParameterTool

import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment

import org.apache.flink.streaming.api.windowing.time.Time



object SocketWindowWordCountScala {

  def main(args: Array[String]) : Unit = {

    // 定义一个数据类型保存单词出现的次数

    case class WordWithCount(word: String, count: Long)

    // port 表示需要连接的端口

    val port: Int = try {

      ParameterTool.fromArgs(args).getInt("port")

    } catch {

      case e: Exception => {

        System.err.println("No port specified. Please run 'SocketWindowWordCount --port <port>'")

        return

      }

    }

    // 获取运行环境

    val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment

    // 连接此socket获取输入数据

    val text = env.socketTextStream("node21", port, '\n')

    //需要加上这一行隐式转换 否则在调用flatmap方法的时候会报错

    import org.apache.flink.api.scala._

    // 解析数据, 分组, 窗口化, 并且聚合求SUM

    val windowCounts = text

      .flatMap { w => w.split("\\s") }

      .map { w => WordWithCount(w, 1) }

      .keyBy("word")

      .timeWindow(Time.seconds(5), Time.seconds(1))

      .sum("count")

    // 打印输出并设置使用一个并行度

    windowCounts.print().setParallelism(1)

    env.execute("Socket Window WordCount")

  }

}

5.3.2、Java代码

import org.apache.flink.api.common.functions.FlatMapFunction;

import org.apache.flink.api.java.utils.ParameterTool;

import org.apache.flink.streaming.api.datastream.DataStream;

import org.apache.flink.streaming.api.datastream.DataStreamSource;

import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

import org.apache.flink.streaming.api.windowing.time.Time;

import org.apache.flink.util.Collector;





public class WordCount {

    //先在虚拟机上打开你的端口号 nc -l 9000

    public static void main(String[] args) throws Exception {

        //定义socket的端口号

        int port;

        try{

            ParameterTool parameterTool = ParameterTool.fromArgs(args);

            port = parameterTool.getInt("port");

        }catch (Exception e){

            System.err.println("没有指定port参数,使用默认值9000");

            port = 9000;

        }



        //获取运行环境

        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();



        //连接socket获取输入的数据

        DataStreamSource<String> text = env.socketTextStream("192.168.1.52", port, "\n");



        //计算数据

        DataStream<WordWithCount> windowCount = text.flatMap(new FlatMapFunction<String, WordWithCount>() {

            public void flatMap(String value, Collector<WordWithCount> out) throws Exception {

                String[] splits = value.split("\\s");

                for (String word:splits) {

                    out.collect(new WordWithCount(word,1L));

                }

            }

        })//打平操作,把每行的单词转为<word,count>类型的数据

                .keyBy("word")//针对相同的word数据进行分组

                .timeWindow(Time.seconds(2),Time.seconds(1))//指定计算数据的窗口大小和滑动窗口大小

                .sum("count");



        //把数据打印到控制台

        windowCount.print()

                .setParallelism(1);//使用一个并行度

        //注意:因为flink是懒加载的,所以必须调用execute方法,上面的代码才会执行

        env.execute("streaming word count");



    }



    /**

     * 主要为了存储单词以及单词出现的次数

     */

    public static class WordWithCount{

        public String word;

        public long count;

        public WordWithCount(){}

        public WordWithCount(String word, long count) {

            this.word = word;

            this.count = count;

        }



        @Override

        public String toString() {

            return "WordWithCount{" +

                    "word='" + word + '\'' +

                    ", count=" + count +

                    '}';

        }

    }

}

5.4、运行测试

首先,使用nc命令启动一个本地监听,命令是:

[itest@node21 ~]$ nc -l 9000

通过netstat命令观察9000端口。 netstat -anlp | grep 9000,启动监听如果报错:-bash: nc: command not found,请先安装nc,在线安装命令:yum -y install nc。

然后,IDEA上运行flink官方案例程序

node21上输入

flink 官方测试数据 flink性能测试工具_大数据_09

flink 官方测试数据 flink性能测试工具_流处理_10

5.5、集群测试

这里单机测试官方案例

[itest@node21 flink-1.6.1]$ pwd

/opt/flink-1.6.1

[itest@node21 flink-1.6.1]$ ./bin/start-cluster.sh

Starting cluster.

Starting standalonesession daemon on host node21.

Starting taskexecutor daemon on host node21.

[itest@node21 flink-1.6.1]$ jps

StandaloneSessionClusterEntrypoint

TaskManagerRunner

Jps

[itest@node21 flink-1.6.1]$ ./bin/flink run examples/streaming/SocketWindowWordCount.jar --port 9000

单词在5秒的时间窗口(处理时间,翻滚窗口)中计算并打印到stdout。监视TaskManager的输出文件并写入一些文本nc(输入在点击后逐行发送到Flink):

6、 使用IDEA开发离线程序

        Dataset是flink的常用程序,数据集通过source进行初始化,例如读取文件或者序列化集合,然后通过transformation(filtering、mapping、joining、grouping)将数据集转成,然后通过sink进行存储,既可以写入hdfs这种分布式文件系统,也可以打印控制台,flink可以有很多种运行方式,如local、flink集群、yarn等.

6.1、 scala程序

import org.apache.flink.api.scala.ExecutionEnvironment

import org.apache.flink.api.scala._



object WordCountScala{

  def main(args: Array[String]) {

    //初始化环境

    val env = ExecutionEnvironment.getExecutionEnvironment

    //从字符串中加载数据

    val text = env.fromElements(

      "Who's there?",

      "I think I hear them. Stand, ho! Who's there?")

    //分割字符串、汇总tuple、按照key进行分组、统计分组后word个数

    val counts = text.flatMap { _.toLowerCase.split("\\W+") filter { _.nonEmpty } }

      .map { (_, 1) }

      .groupBy(0)

      .sum(1)

    //打印

    counts.print()

  }

}

6.2、 java程序

import org.apache.flink.api.common.functions.FlatMapFunction;

import org.apache.flink.api.java.DataSet;

import org.apache.flink.api.java.ExecutionEnvironment;

import org.apache.flink.api.java.tuple.Tuple2;

import org.apache.flink.util.Collector;



public class WordCountJava {

    public static void main(String[] args) throws Exception {

        //构建环境

        final ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();

        //通过字符串构建数据集

        DataSet<String> text = env.fromElements(

                "Who's there?",

                "I think I hear them. Stand, ho! Who's there?");

        //分割字符串、按照key进行分组、统计相同的key个数

        DataSet<Tuple2<String, Integer>> wordCounts = text

                .flatMap(new LineSplitter())

                .groupBy(0)

                .sum(1);

        //打印

        wordCounts.print();

    }

    //分割字符串的方法

    public static class LineSplitter implements FlatMapFunction<String, Tuple2<String, Integer>> {

        @Override

        public void flatMap(String line, Collector<Tuple2<String, Integer>> out) {

            for (String word : line.split(" ")) {

                out.collect(new Tuple2<String, Integer>(word, 1));

            }

        }

    }

}

6.3、运行

flink 官方测试数据 flink性能测试工具_flink 官方测试数据_11

附录 代码示例

import org.apache.flink.api.common.functions.FoldFunction;

import org.apache.flink.api.java.functions.KeySelector;

import org.apache.flink.api.java.tuple.Tuple2;

import org.apache.flink.streaming.api.datastream.DataStream;

import org.apache.flink.streaming.api.datastream.KeyedStream;

import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

import org.apache.flink.streaming.api.windowing.time.Time;

import org.apache.flink.streaming.connectors.wikiedits.WikipediaEditEvent;

import org.apache.flink.streaming.connectors.wikiedits.WikipediaEditsSource;



public class WikipediaAnalysis {

    public static void main(String[] args) throws Exception {

        //创建一个streaming程序运行的上下文

        StreamExecutionEnvironment see = StreamExecutionEnvironment.getExecutionEnvironment();

        //sowurce部分---数据来源部分

        DataStream<WikipediaEditEvent> edits = see.addSource(new WikipediaEditsSource());



        KeyedStream<WikipediaEditEvent, String> keyedEdits = edits

                .keyBy(new KeySelector<WikipediaEditEvent, String>() {

                    @Override

                    public String getKey(WikipediaEditEvent event) {

                        return event.getUser();

                    }

                });



        DataStream<Tuple2<String, Long>> result = keyedEdits

                .timeWindow(Time.seconds(5))

                .fold(new Tuple2<>("", 0L), new FoldFunction<WikipediaEditEvent, Tuple2<String, Long>>() {

                    @Override

                    public Tuple2<String, Long> fold(Tuple2<String, Long> acc, WikipediaEditEvent event) {

                        acc.f0 = event.getUser();

                        acc.f1 += event.getByteDiff();

                        return acc;

                    }

                });

        result.print();

        see.execute();

    }

}