【1】准备工作

(1.1)集群架构规划

OS  

ES version

Ip

node.name

Role

cluster.name

es basedir

CentOS Linux release 7.8.2003 (Core)

elasticsearch-7.14.1


192.168.175.132:9200

cluster:192.168.175.132:9301


node_1


node.master=true

node.data=true


es_cluster1

/data/es/es_9200

CentOS Linux release 7.8.2003 (Core)

elasticsearch-7.14.1


192.168.175.129:9200

cluster:192.168.175.132:9301


node_2


node.data=true

node.master=true


es_cluster1

/data/es/es_9200

CentOS Linux release 7.8.2003 (Core)

elasticsearch-7.14.1


192.168.175.129:9200

cluster:192.168.175.132:9301


node_3


node.data=true

node.master=true


es_cluster1

/data/es/es_9200

(1.2)前置目录、账户、信息等准备工作

不明白的地方请参考:

  (0.1)elasticsearch安装

  (0.10)elasticsearch分布式集群基本搭建(centos7.x + elaticsearch7.11.1)

jdk如果不配置,没有 JAVA_HOME,则自动使用 es 包中自带的 JDK,这里我就没有安装jdk



mkdir -p /data/software
cd /data/software
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.14.1-linux-x86_64.tar.gz
groupadd elk
useradd elk -g elk
tar -zxf elasticsearch-7.14.1-linux-x86_64.tar.gz
mkdir -p /data/es/
mv elasticsearch-7.14.1 /data/es/es_9200
echo 'vm.max_map_count=2655350'>> /etc/sysctl.conf
echo 'vm.swappiness=1'>>/etc/sysctl.conf
cat <<eof>> /etc/security/limits.conf
elk soft nproc 65535
elk hard nproc 65535
elk soft nofile 65535
elk hard nofile 65535
elk soft stack 65535
elk hard stack 65535
elk hard memlock unlimited #锁定内存页
elk soft memlock unlimited #需要退出重登会话生效
eof
sysctl -p
# /data/es/es_9200/data # 默认数据目录,同目录的 logs 放日志
mkdir -p /data/es/es_9200/{es_data,es_logs}
chown -R elk:elk /data/es
#参考启动命令 su -l elk -c "/data/es/es_9200/bin/elasticsearch -d -p /tmp/es_9200.pid"


(1.3)配置文件 elasticsearch.yml



cp -r /data/es/es_9200/config/elasticsearch.yml /data/es/es_9200/config/elasticsearch.yml.bak
cat <<eof > /data/es/es_9200/config/elasticsearch.yml
#-----cluster-----
cluster.name: es_cluster1 #集群名称
#gateway.recover_after_nodes: 3 #至少恢复3个节点及以上,集群节点才可以被访问

#-----node-----
node.name: node_1 #节点名称,其他两个节点分别改成 node_2 node_3
node.master: true #该是否可被选举为主节点
node.data: true #该节点是否可成为数据节点
node.max_local_storage_nodes: 5 #集群最大逻辑存储节点数
transport.port: 9301 #集群内部通信端口

#-----data and log------
path.data: es_data #生产环境建议把这2个和解压文件夹分离,避免升级丢失数据
path.logs: es_logs

#-----memory-----
bootstrap.memory_lock: true #启动锁定内存页,这样就可以避免内存压力从而导致es的内存页被释放掉或被存到交换内存

#-----network-----
network.host: 0.0.0.0 # 网关地址,0.0.0.0为不限制
http.port: 9200

discovery.seed_hosts: ["192.168.175.132:9301", "192.168.175.147:9301", "192.168.175.148:9301"]
cluster.initial_master_nodes: ["node_1", "node_2", "node_3"]

#-----http requests-----
bootstrap.system_call_filter: false
http.cors.allow-origin: "*"
http.cors.enabled: true
http.cors.allow-headers : X-Requested-With,X-Auth-Token,Content-Type,Content-Length,Authorization
http.cors.allow-credentials: true

#-----es operation-----
#action.destructive_requires_name: true #删除索引时是否必须要实际索引名,避免批量删除
eof


(1.4)启动es、查阅

3个机器配置文件都弄好之后,启动es



echo 'su -l elk -c "/data/es/es_9200/bin/elasticsearch -d -p /tmp/es_9200.pid"'>>/etc/rc.local
su -l elk -c "/data/es/es_9200/bin/elasticsearch -d -p /tmp/es_9200.pid"
#kill -F /tmp/es_9200.pid
#查阅
curl localhost:9200
curl localhost:9200/_cat/health?v


(1.5)整合UI,cerebro

cerebro官网:​​https://github.com/lmenezes/cerebro​

相关ui参考:(0.4)ElasticSearch7整合es-head,ES配置密码

装一个就可以了,我装在了 192.168.175.132 机器上 也就是 node_1



cd /data/software

wget https://github.com/lmenezes/cerebro/releases/download/v0.9.4/cerebro-0.9.4.tgz

tar -zxf cerebro-0.9.4.tgz
cd /data/software/cerebro-0.9.4/bin && nohup ./cerebro &
echo 'cd /data/software/cerebro-0.9.4/bin && nohup ./cerebro &' >>/etc/rc.local


 

访问:http://192.168.175.132:9000

输入任意集群节点信息

  (1.5)es集群部署运维【最佳实践】_centos

 效果:

  (1.5)es集群部署运维【最佳实践】_配置文件_02

   (1.5)es集群部署运维【最佳实践】_数据_03

  (1.5)es集群部署运维【最佳实践】_centos_04

   (1.5)es集群部署运维【最佳实践】_linux_05