1

SQL节点


测试sql节点,简单做个测试创建一张表并插入测试数据,再从这张表数据并行导入到第二张和第三张表。

1、创建测试库

Create database testdb;


2、创建三张表


CREATE TABLE `testa`(  `id` int,  `name` string); CREATE TABLE `testb`(  `id` int,  `name` string);CREATE TABLE `testc`(  `id` int,  `name` string);


3、创建新的工作流

任务调度系统的后起之秀——DolphinScheduler(三)_java


4、在工作流创建画布中选择数据库图标,创建hive任务,在testa表中插入测试数据。

任务调度系统的后起之秀——DolphinScheduler(三)_java_02


5、创建hive任务,将testa中的测试数据插入到testb中。

任务调度系统的后起之秀——DolphinScheduler(三)_java_03


6、创建hive任务,将testa中的测试数据插入到testc中。


7、使用箭头给三个任务建立联系,指定先后执行顺序,保存并设置工作流名称。


8、上线,执行,查看运行结果。


2

Datax节点


1、因为在安装时没有配置datax路径,先停止ds集群。演示一个从hive数据导入到mysql的例子。

[root@hadoop101 ds]# sh bin/stop-all.sh


2、在worker节点102、103安装datax。


[root@hadoop102 module]# wget datax-opensource.oss-cn-hangzhou.aliyuncs.com/datax.tar.gz[root@hadoop102 module]# tar -zxvf datax.tar.gz[root@hadoop102 module]# scp -r datax hadoop103:/opt/module/


3、配置DolphinScheduler  env下的dolphinscheduler_env.sh,设置datax路径


[root@hadoop101 ds]# vim conf/env/dolphinscheduler_env.shexportDATAX_HOME=/opt/module/datax/bin/datax.py[root@hadoop101 ds]# scp conf/env/dolphinscheduler_env.sh hadoop102:/opt/module/ds/conf/env/[root@hadoop101 ds]# scp conf/env/dolphinscheduler_env.sh hadoop103:/opt/module/ds/conf/env/


4、重启ds,创建datax节点

[root@hadoop101 ds]# sh bin/start-all.sh


5、创建新的工作流。


6、在工作流画布上添加DataX任务。


7、由于默认数据源中不存在hive,所以开启自定义模板,放入对应json,在json中定义了具体的操作和必要的配置参数。hdfs路径上存在分区目录,在实际情况导数据的时候分区肯定不能写死,需要传参,所以使用自定义参数。


8、设置好参数后,启动任务。


9、查看任务执行结果。


3

系统参数


1、刚才演示的datax任务中网站分区和时间分区参数都写成了固定值,那么在实际环境中,跑离线数仓任务,都是今天跑昨天的全量数据,所以时间参数不能定死,需要用到以下参数。

变量

含义

${system.biz.date}

日常调度实例定时的定时时间前一天,格式为 yyyyMMdd,补数据时,该日期 +1

${system.biz.curdate}

日常调度实例定时的定时时间,格式为 yyyyMMdd,补数据时,该日期 +1

${system.datetime}

日常调度实例定时的定时时间,格式为 yyyyMMddHHmmss,补数据时,该日期 +1


2、参数里是引用系统参数,也可以是指定常量。也可以使用以下格式

后 N 年:$[add_months(yyyyMMdd,12*N)]

前 N 年:$[add_months(yyyyMMdd,-12*N)]

后 N 月:$[add_months(yyyyMMdd,N)]

前 N 月:$[add_months(yyyyMMdd,-N)]

后 N 周:$[yyyyMMdd+7*N]

前 N 周:$[yyyyMMdd-7*N]

后 N 天:$[yyyyMMdd+N]

前 N 天:$[yyyyMMdd-N]

后 N 小时:$[HHmmss+N/24]

前 N 小时:$[HHmmss-N/24]

后 N 分钟:$[HHmmss+N/24/60]

前 N 分钟:$[HHmmss-N/24/60]


3、测试,发现日期已发生变化,变成了前一天的日期,该函数可以用来跑每日的定时任务。



4

子节点


1、创建工作流,演示一个完整流程,先跑spark任务,跑完之后跑datax任务。

任务调度系统的后起之秀——DolphinScheduler(三)_java_04


2、创建三个spark节点任务。

任务调度系统的后起之秀——DolphinScheduler(三)_java_05


3、选中子添加点图标,添加对应datax子节点。

任务调度系统的后起之秀——DolphinScheduler(三)_java_06


4、使用箭头确定任务的先后执行顺序。

任务调度系统的后起之秀——DolphinScheduler(三)_java_07


5、删除HDFS和mysql上的历史数据。


[root@hadoop103 ~]# hadoop dfs -rm -r -skipTrash /user/hive/warehouse/dwd.db[root@hadoop103 ~]# hadoop dfs -rm -r -skipTrash /user/hive/warehouse/dws.db[root@hadoop103 ~]# hadoop dfs -rm -r -skipTrash /user/hive/warehouse/ads.db TRUNCATE TABLE user_question_detail


6、上线、执行。

任务调度系统的后起之秀——DolphinScheduler(三)_java_08

任务调度系统的后起之秀——DolphinScheduler(三)_java_09


7、查看运行结果。

任务调度系统的后起之秀——DolphinScheduler(三)_java_10

任务调度系统的后起之秀——DolphinScheduler(三)_java_11

 

5

配置邮件服务器


1、开启邮箱的SMTP服务,并且获取对应授权码,我这里接收分别为zxuxrvbrwcsydhfi 和ihohwbjladjdeahh。

任务调度系统的后起之秀——DolphinScheduler(三)_java_12


2、在alert.properties配置文件中做如下配置。由于我演示的阿里云环境,默认25端口不开启,改用stmps服务对应587端口。



[root@hadoop101 conf]# vim alert.propertiesmail.protocol=SMTPmail.server.host=smtp.qq.commail.server.port=587mail.sender=2473196869@qq.commail.user=2473196869@qq.commail.passwd=zxuxrvbrwcsydhfi# TLSmail.smtp.starttls.enable=true# SSLmail.smtp.ssl.enable=falsemail.smtp.ssl.trust=smtp.qq.com[root@hadoop101 conf]# scp alert.properties hadoop102:/opt/module/ds/conf/[root@hadoop101 conf]# scp alert.properties hadoop103:/opt/module/ds/conf/[root@hadoop101 conf]# cd ..[root@hadoop101 ds]# sh bin/stop-all.sh[root@hadoop101 ds]# sh bin/start-all.sh


3、创建测试工作流。

任务调度系统的后起之秀——DolphinScheduler(三)_java_13


4、执行工作流,并在启动前配置参数,配置为任务成功则发送邮件。

任务调度系统的后起之秀——DolphinScheduler(三)_java_14

任务调度系统的后起之秀——DolphinScheduler(三)_java_15


5、执行成功后,查看邮件。

任务调度系统的后起之秀——DolphinScheduler(三)_java_16