虚拟机的语句详解:

1.zookeeper

启动:zkServer.sh start 
zkServer.sh start 
zkServer.sh status
zkCli.sh
2.kafka
kafka-server-start.sh /usr/local/apps/kafka/config/server.properties 
kafka如何创建topic:
3.flink操作语句
进入cd /usr/local/apps/flink/bin
启动flink:./start-cluster.sh 
4.hadoop安装
hadoop namenode -format
start-dfs.sh
 start-yarn.sh5.clickhouse
service clickhouse-server start service clickhouse-server stop service clickhouse-server restart
clickhouse--client
6.hbase
start-hbase.sh
代码的github地址:https://github.com/FandySww/FlinkAnanlySystem

资料:

flink 写clickhouse flink写clickhouse节点挂_flink

---

数据收集的日志结构:

flink 写clickhouse flink写clickhouse节点挂_kafka_02

小程序:

flink 写clickhouse flink写clickhouse节点挂_kafka_03

app的:

flink 写clickhouse flink写clickhouse节点挂_flink_04

搜集我们的浏览日志:

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_05

我们把这些结构变成实体,方便我们去处理。

flink 写clickhouse flink写clickhouse节点挂_配置文件_06

---1-5---

代码:

flink 写clickhouse flink写clickhouse节点挂_配置文件_07

fastjson和null的做法:

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_08

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_09

---1-6---

kafka环境的搭建:

资料:

flink 写clickhouse flink写clickhouse节点挂_kafka_10

centos虚拟机的克隆:

虚拟机的地址: 133 134 135

flink 写clickhouse flink写clickhouse节点挂_flink_11

安装zk和kafka。

在131上安装了zookeeper和kafka。

zk单机安装:

第一步修改环境变量,具体略。

第二步修配置文件:

flink 写clickhouse flink写clickhouse节点挂_flink_12

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_13

---

kafka的安装,第一步,直接配置

flink 写clickhouse flink写clickhouse节点挂_kafka_14

第二步:两个地方:

1.

flink 写clickhouse flink写clickhouse节点挂_配置文件_15

2.

flink 写clickhouse flink写clickhouse节点挂_flink_16

3.

flink 写clickhouse flink写clickhouse节点挂_kafka_17

第三步:配置环境变量,略

第四步:启动

flink 写clickhouse flink写clickhouse节点挂_flink_18

kafka如何创建topic:在bin目录下./kafka-topics.sh --create --zookeeper 127.0.0.1:2181 --replication-factor 1 --partitions 1 --topic dataiinfo

---

启动总结:

zk:

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_19

kafka:

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_20

---1-7---

回到代码:

flink 写clickhouse flink写clickhouse节点挂_flink_21

向topic发消息:./kafka-topics.sh --create --zookeeper 127.0.0.1:2181 --replication-factor 1 --partitions 1 --topic dataiinfo

代码:

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_22

kafka控制台监听消息:

./kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092  --topic datainfo

测试kafka的代码。测试下kafka的代码:

flink 写clickhouse flink写clickhouse节点挂_kafka_23

---1-8---

安装flink:

第一步:

flink 写clickhouse flink写clickhouse节点挂_配置文件_24

进入cd /usr/local/apps/flink/bin

启动flink:./start-cluster.sh 

flink 写clickhouse flink写clickhouse节点挂_flink_25

访问:http://192.168.244.133:8081/

可以看到:

flink 写clickhouse flink写clickhouse节点挂_配置文件_26

跑一个例子:

flink 写clickhouse flink写clickhouse节点挂_配置文件_27

---1-9--

flink+kafka构建实时分析:

这个是十分重要的。

新建模块:

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_28

添加依赖:

<dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-core</artifactId>
            <version>1.9.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-java_2.11</artifactId>
            <version>1.9.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-kafka_2.11</artifactId>
            <version>1.9.0</version>
        </dependency>

---10---

启动下我们的工程:

1.启动注册中心:

flink 写clickhouse flink写clickhouse节点挂_kafka_29

2.启动datacollect

3.测试下kafka的发送

flink 写clickhouse flink写clickhouse节点挂_kafka_30


4.这个类

flink 写clickhouse flink写clickhouse节点挂_配置文件_31

---11---

hadoop环境的安装。

安装文件:

flink 写clickhouse flink写clickhouse节点挂_flink_32

安装步骤:

第一步:进入到这个目录

flink 写clickhouse flink写clickhouse节点挂_kafka_33

第二步:修改配置文件

flink 写clickhouse flink写clickhouse节点挂_flink_34

flink 写clickhouse flink写clickhouse节点挂_flink_35

第三步:修改core配置文件

flink 写clickhouse flink写clickhouse节点挂_配置文件_36

 

这里需要改下配置:我这里是9008

 

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_37

第四步:修改下一个配置文件,配置副本数。

flink 写clickhouse flink写clickhouse节点挂_kafka_38

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_39

第五步:修改下一个xml

拷贝这个xml的副本:

flink 写clickhouse flink写clickhouse节点挂_kafka_40

flink 写clickhouse flink写clickhouse节点挂_kafka_41

flink 写clickhouse flink写clickhouse节点挂_配置文件_42

第六步:继续配置,配置免密登录

flink 写clickhouse flink写clickhouse节点挂_配置文件_43

一直回车。

要新建一个用户slave修改hostname为slave才会成功。

关于用户:

linux创建用户:

这里我要添加一个slave的。

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_44

测试下:

flink 写clickhouse flink写clickhouse节点挂_flink_45

第七步:格式化

flink 写clickhouse flink写clickhouse节点挂_flink_46

再配置下基本配置文件:

flink 写clickhouse flink写clickhouse节点挂_flink_47

启动hadoop:

flink 写clickhouse flink写clickhouse节点挂_flink_48

没有我们再次修改一次环境变量:

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_49

flink 写clickhouse flink写clickhouse节点挂_kafka_50

flink 写clickhouse flink写clickhouse节点挂_flink_51

第八步:启动yarn

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_52

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_53

第九步:控制台

http://192.168.244.133:50070/dfshealth.html#tab-overview

http://192.168.244.133:8088/cluster

---12---

clickhouse:

什么是t+1

flink 写clickhouse flink写clickhouse节点挂_flink_54

flink 写clickhouse flink写clickhouse节点挂_配置文件_55

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_56

flink 写clickhouse flink写clickhouse节点挂_flink_57

flink 写clickhouse flink写clickhouse节点挂_配置文件_58

flink 写clickhouse flink写clickhouse节点挂_配置文件_59

---13---

安装:过

默认配置文件的修改:

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_60

第一步:修改第一个配置文件

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_61

这两个配置文件都要修改:

flink 写clickhouse flink写clickhouse节点挂_配置文件_62

第一个文件修改的地方为:

flink 写clickhouse flink写clickhouse节点挂_配置文件_63

第二个文件修改的地方为:

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_64

启动:

指定配置文件启动:

flink 写clickhouse flink写clickhouse节点挂_flink_65

访问下:

flink 写clickhouse flink写clickhouse节点挂_flink_66

clickhouse的终极启动秘籍:

---14---

数据类型:

flink 写clickhouse flink写clickhouse节点挂_配置文件_67

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_68

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_69

flink 写clickhouse flink写clickhouse节点挂_配置文件_70

---

简单的使用:

flink 写clickhouse flink写clickhouse节点挂_配置文件_71

建表:

flink 写clickhouse flink写clickhouse节点挂_配置文件_72

flink 写clickhouse flink写clickhouse节点挂_flink_73

插入数据:

insert into youfantest(id,name,create_date) values(1,'xiaobai','2020-11-29')

insert into youfantest(id,name,create_date) values(5,'xiaohuang','2020-11-29')

insert into youfantest(id,name,create_date) values(2,'xiaohong','2020-11-30')

insert into youfantest(id,name,create_date) values(3,'xiaohei','2020-11-28')

insert into youfantest(id,name,create_date) values(4,'xiaolv','2020-11-27')

---15---

flink 写clickhouse flink写clickhouse节点挂_kafka_74

其它的连接案例:

---16---

通过java查询数据:

flink 写clickhouse flink写clickhouse节点挂_flink_75

---17---

日志数据完善与优化:

flink 写clickhouse flink写clickhouse节点挂_kafka_76

---18---

flink 写clickhouse flink写clickhouse节点挂_配置文件_77

---19---

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_78

HBASE安装:

第一步:进入这个目录

flink 写clickhouse flink写clickhouse节点挂_配置文件_79

flink 写clickhouse flink写clickhouse节点挂_flink_80

第二步:修改hbase-site.xml文件。

注意hbase安装在134这台机器上。

flink 写clickhouse flink写clickhouse节点挂_flink_81

先启动下hadoop记住两个命令:

flink 写clickhouse flink写clickhouse节点挂_flink_82

注意我的地址是9008.

flink 写clickhouse flink写clickhouse节点挂_flink_83

注意这个9000改为9008

第三步:配置hbase的环境变量

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_84

第四步:启动hdfs和zookeeper

flink 写clickhouse flink写clickhouse节点挂_kafka_85

flink 写clickhouse flink写clickhouse节点挂_flink_86

第五步配置下java环境

flink 写clickhouse flink写clickhouse节点挂_配置文件_87

flink 写clickhouse flink写clickhouse节点挂_配置文件_88

第六步启动:

flink 写clickhouse flink写clickhouse节点挂_配置文件_89

flink 写clickhouse flink写clickhouse节点挂_flink_90

地址:http://192.168.244.133:60010/master-status

hbase安装包:http://archive.apache.org/dist/hbase/2.2.1/

----

按照这个帖子操作可以启动hbase

1.

2.

3.重点:hbase启动失败:

/usr/local/apps/zookeeper-3.4.5/data

/usr/local/apps/hbase-2.2.1/hbase

/usr/local/apps/jdk8

操,重大新闻,我安装的是单机版本的hbase,这里看下:

flink 写clickhouse flink写clickhouse节点挂_flink 写clickhouse_91

---20---