HUE版本:3.12.0
Spark版本:1.6.3
Ambari版本:2.6.1.0
HDP版本:2.6.4
前言
通过浏览器访问ip:8888登陆HUE界面,首次登陆会提示你创建用户,这里使用账号/密码:hue/hue登陆。
一、背景
访问ip:8888/about/#step2,点击下载Oozie Editor/Dashboard,可以下载应用程序示例。如下图所示:
下载完成之后,访问workflow编辑器,会看到spark的程序示例。在这对该示例如何执行进行讲解。如下两图所示:
二、业务场景
通过启动Spark Java程序复制文件到HDFS文件系统中。
三、上传jar包
点击spark示例程序,点击“工作区”,如下图所示:
将本地/usr/hdp/2.6.4.0-91/spark/lib目录下的jar包上传到上述工作区的lib文件夹内,执行命令:
sudo -u hdfs hadoop fs -put /usr/hdp/2.6.4.0-91/spark/lib/* /user/hue/oozie/workspaces/workflows/spark-scala/lib/
执行结果如图所示:
四、检查Workflow配置
点击“编辑”,出现如下图所示,其中jar/py名称是oozie-examples.jar,main class(主类)是org.apache.oozie.example.SparkFileCopy,参数为:${input},${output}。在这里,我们保持默认配置。如下图所示:
点击“设置”,可以更改Workflow设置,其中变量input的值就是我们要复制的文件路径。在这里,我们保持默认配置,如下图所示:
五、执行Workflow
点击“执行”按钮,选择output输出路径,这里我选择输出到该示例的工作区: /user/hue/oozie/workspaces/workflows/spark-scala/output,点击“提交”。
备注:输出路径会自动生成,不能选择已有文件。
六、查看结果
打开/user/hue/oozie/workspaces/workflows/spark-scala/output,会生成三个文件,如下图所示:
七、总结
在HUE上通过oozie调用Spark工作流:
-
本篇文章是使用的HUE官方自带的Spark示例,我们需要提前下载。
-
上传Spark相关jar包到该Spark Workflow的工作区
-
检查Workflow配置
-
选择输入输出参数,执行Workflow