elasticsearch.yml文件

介绍elasticsearch的文件_数据恢复

打开上边的文件,我们看到下面的"集群"名称,节点名称

介绍elasticsearch的文件_数据恢复_02

 

 下图是文件的存储路径和日志路径

介绍elasticsearch的文件_压缩包_03

下面是监听的地址,默认是本机

介绍elasticsearch的文件_elasticsearch_04

 下图指的是,集群是怎样搭建的,一种是默认的(在局域网内,起一个就是一个),我们需要统一对文件进行处理

也就是以单播或者广播的形式发行.

 

介绍elasticsearch的文件_压缩包_05

为了更清晰展示,我们再开启一个elasticsearch,也就是再次解压一个es压缩包,双击下图的执行文件

介绍elasticsearch的文件_数据恢复_06

 上边存在一点问题,我们只是启动一个文件是存在问题的.

 

介绍elasticsearch的文件_数据恢复_07

上图代表,有多少节点可以成为老大.

介绍elasticsearch的文件_数据恢复_08

上图代表数据恢复的东西.

 

 

介绍elasticsearch的文件_数据恢复_09

上图代表对虚拟机进行的配置

 

介绍elasticsearch的文件_压缩包_10

上图默认的堆的大小是1G.可以改成500M

 

介绍elasticsearch的文件_elasticsearch_11

上图代表的是日志文件

日志的等级等等,都不会动他

log4j也是Apache的子项目之一

 

data文件夹暂时不要动.

lib文件夹也不要看了,是java写的

介绍elasticsearch的文件_压缩包_12

上图的文件,是日志输出的地方.

 

介绍elasticsearch的文件_数据恢复_13

kibana是我们需要配置的url文件.

kibana默认监听的是本地的5601

因此,我们需要配置

上图的url地址.

kibana要起来,elasticsearch必须要起来,也就是说kibana向elasticsearch发送请求.

如果es起不来就会一直存在问题.我们可以在下图的位置,设置超时时间

介绍elasticsearch的文件_压缩包_14