输入地址,和 kibana 的端口号://192.168.1.113:5601 点击 Discovery 如果一切正常,应该已经出现信息了。过滤访问日志,可以出来东西了。每个字段,主机名,都完美的过滤出来,下面我们做个热力图写的不好、欢迎指正
node1:elasticsearch、kibana、logstashnode2:filebeat1、如前文,下载 filebeat 6.5.0 版 在 node2 节点安装filebeat 的安装,运行,是不需要 jdk 环境的# rpm -ivh filebeat-6.5.0-x86_64.rpm进入配置文件目录,修改配置文件# cd /etc
node1:elasticsearch、kibana、logstashnode2:filebeat1、如前文,下载 kibana 6.5.0 版 安装# rpm -ivh kibana-6.5.0-x86_64.rpm进入配置文件目录,修改配置文件# cd /etc/kibana/# vim kibana.yml2、尝试启动 k
node1:elasticsearch、kibana、logstashnode2:filebeat1,下载elasticsearch6.5.0版本(吐槽一下,我们线上部署的时候是6.5.0,写文档的时候已经是6.5.2了,官网更新速度实在是太快了。)2,安装#rpm-ivhelasticsearch-6.5.0.rpm安装完成的提示信息里面也是有价值的信息的。这些,你有发现吗?3,编辑配置文件信息
承接上文,我们开始做剩余的步骤,启动Cloudera Manager Service,并用该工具,在剩余三个节点,server2,server3,server4 自动安装jdk,和cloudera-agent1,启动 cloudera-scm-server 服务# systemctl start cloudera-scm-server等待时间较长,可以通过查询日志的方
此篇基本与官方文档一致,细节不一样的地方会标注我的环境:server1 192.168.1.201 4核 8G 120G(固态)server2 192.168.1.202 4核 8G 120G+500G(固态)server3 192.168.1.203 4核 8G 120G+500G(固态)server4 192.168.1.204 4核 8G 120G+500G(固态)以上机型用cobbler
ELK 基础流程图,开始配置前的系统优化,JDK安装,环境变量生效
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号