相信大家在看了《Hue的安装,配置,编译》之后,都已经成功把Hue安装好了。

Hue集成HDFS_Hadoop

        接下来,小菌为大家分享的是如何​在Hue上集成HDFS​!

        首先我们需要进入到我们hadoop的指定目录下

        ​​/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop​

1.修改core-site.xml配置

在文件中添加下面的内容

<!—允许通过httpfs方式访问hdfs的主机名 -->

<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>

<!—允许通过httpfs方式访问hdfs的用户组 -->
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>

2.修改hdfs-site.xml配置

同样的,在文件中添加下面的内容

<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>

注意修改完HDFS相关配置后,需要把配置scp给集群中每台机器,重启hdfs集群。

把数据同步到每台节点上之后,我们接着需要修改hue安装目录下的文件

3.修改hue.ini

​cd /export/servers/hue-3.9.0-cdh5.14.0/desktop/conf​

​vim hue.ini​

注意把对应的属性设置成下面的内容

[[hdfs_clusters]]
[[[default]]]
fs_defaultfs=hdfs://node01:9000
webhdfs_url=http://node01:50070/webhdfs/v1
hadoop_hdfs_home= /export/servers/hadoop-2.7.5
hadoop_bin=/export/servers/hadoop-2.7.5/bin
hadoop_conf_dir=/export/servers/hadoop-2.7.5/etc/hadoop

其中,node01为主节点的ip

hadoop_hdfs_home,hadoop_bin,hadoop_conf_dir需要根据自己hadoop的安装路径自行修改

4.重启HDFS、Hue

做完了上面的步骤,到这一步就只剩下重启HDFS和Hue了

因为我们配置了Hadoop的环境变量,所以直接在命令行输入

​stop-dfs.sh​​关闭HDFS,然后再​​start-dfs.sh​​开启集群。

启动Hue也很简单

直接输入以下命令即可

​cd /export/servers/hue-3.9.0-cdh5.14.0/​

​build/env/bin/supervisor​

然后,来到我们的Hue的UI界面上

Hue集成HDFS_HDFS_02

看到类似这样的效果,说明我们的Hue集成HDFS就成功了

当然,大家在启动Hue的时候可能会遇到端口被占用的情况,具体的解决方案可以去看看《Hue启动异常,提示address already in use》

那么本次的分享就到这里了,受益的小伙伴或者对大数据技术感兴趣的朋友们记得关注小菌哟(^U^)ノ~YO