说明

  • CentOS下ElasticSearch集群搭建
  • 集群搭建的一些准备工作是基于单节点安装,具体参照我的上一篇文章“CentOS下安装ElasticSearch”
  • 本案例以单服务器多端口模拟集群环境(由node-9201、node-9202、node-9203三个节点共同组成)
  • ES集群正常工作至少需要3台服务节点。如果只有两台节点,当主节点挂掉后会导致另一台是无法被选举为主节点,最终导致整个集群停止服务。如果3台中两台宕机也会导致集群停止服务。
  • 具体影响因素参考本文“其他配置”中的discovery.zen.minimum_master_nodes参数
  • 官方文档:https://www.elastic.co/cn/

操作步骤

》解压缩

  • 安装包列表
[root@192 ES]# ll
total 311360
-rw-r--r--. 1 501 games 306436527 Jan 17 12:03 elasticsearch-7.9.3-linux-x86_64.tar.gz
  • 解压缩到一个目录,比如:/usr/local/es/cluster/node-9201
  • 确定已经添加了es用户
  • 确定目录所属用户为es,如果不是,root身份执行以下命令
[root@192 ES]# chown -R es:es /usr/local/es/cluster/
  • 接下来的操作切换为es用户
[root@192 ES]# su es
  • 切换到该目录
[es@192 node-9201]$ pwd
/usr/local/es/cluster/node-9201
[es@192 node-9201]$ ll
total 568
drwxr-xr-x.  2 es es   4096 Jan 20 22:44 bin
drwxr-xr-x.  3 es es    169 Jan 20 22:44 config
drwxr-xr-x.  8 es es     96 Jan 20 22:44 jdk
drwxr-xr-x.  3 es es   4096 Jan 20 22:44 lib
-rw-r--r--.  1 es es  13675 Jan 20 22:44 LICENSE.txt
drwxr-xr-x.  2 es es      6 Jan 20 22:44 logs
drwxr-xr-x. 51 es es   4096 Jan 20 22:44 modules
-rw-r--r--.  1 es es 544318 Jan 20 22:44 NOTICE.txt
drwxr-xr-x.  2 es es      6 Jan 20 22:44 plugins
-rw-r--r--.  1 es es   7007 Jan 20 22:44 README.asciidoc

》修改配置

  • config/jvm.options
-Xms128m
-Xmx128m
  • config/elasticsearch.yml
# 集群名称
cluster.name: my-app

# 节点名称
node.name: node-9201

# 节点是否可作为master
node.master: true

# 节点是否数据节点
node.data: true

# host名称(可以是IP,也可以是hostname)
network.host: 192.168.3.201

# http端口
http.port: 9201

# 集群节点间通信端口
transport.port: 9301

# 集群初始化时可被选举master的节点
cluster.initial_master_nodes: ["node-9201", "node-9202", "node-9203"]

# 节点发现(可以是IP,也可以是hostname)
discovery.seed_hosts: ["192.168.3.201:9301", "192.168.3.201:9302", "192.168.3.201:9303"]
  • 注意:此时修改好先不要启动,如果启动了,下一步复制文件夹时,新的文件夹中需要清空data文件夹和logs文件夹否则启动报错。

》克隆配置好的ES环境并更改端口等配置

  • 将上一步配置好的文件夹“node-9201”整个复制两份,分别命名为“node-9202”、“node-9203”
[es@192 cluster]$ pwd
/usr/local/es/cluster
[es@192 cluster]$ ll
total 0
drwxr-xr-x. 10 es es 167 Jan 21 17:29 node-9201
drwxr-xr-x. 10 es es 167 Jan 21 17:30 node-9202
drwxr-xr-x. 10 es es 167 Jan 21 17:30 node-9203
  • 修改配置:node-9202/config/elasticsearch.yml
# 集群名称
cluster.name: my-app

# 节点名称
node.name: node-9202

# 节点是否可作为master
node.master: true

# 节点是否数据节点
node.data: true

# host名称(可以是IP,也可以是hostname)
network.host: 192.168.3.201

# http端口
http.port: 9202

# 集群节点间通信端口
transport.port: 9302

# 集群初始化时可被选举master的节点
cluster.initial_master_nodes: ["node-9201", "node-9202", "node-9203"]

# 节点发现(可以是IP,也可以是hostname)
discovery.seed_hosts: ["192.168.3.201:9301", "192.168.3.201:9302", "192.168.3.201:9303"]
  • 修改配置:node-9203/config/elasticsearch.yml
# 集群名称
cluster.name: my-app

# 节点名称
node.name: node-9203

# 节点是否可作为master
node.master: true

# 节点是否数据节点
node.data: true

# host名称(可以是IP,也可以是hostname)
network.host: 192.168.3.201

# http端口
http.port: 9203

# 集群节点间通信端口
transport.port: 9303

# 集群初始化时可被选举master的节点
cluster.initial_master_nodes: ["node-9201", "node-9202", "node-9203"]

# 节点发现(可以是IP,也可以是hostname)
discovery.seed_hosts: ["192.168.3.201:9301", "192.168.3.201:9302", "192.168.3.201:9303"]

》分别启动三个ES服务

  • 便于查看日志,首次先前台启动
# 启动第一个节点:node-9201
[es@192 node-9201]$ bin/elasticsearch

# 启动第二个节点:node-9202
[es@192 node-9202]$ bin/elasticsearch

# 启动第三个节点:node-9203
[es@192 node-9203]$ bin/elasticsearch
  • 如果没有问题,以后可以后台启动
# 启动第一个节点:node-9201
[es@192 node-9201]$ bin/elasticsearch -d

# 启动第二个节点:node-9202
[es@192 node-9202]$ bin/elasticsearch -d

# 启动第三个节点:node-9203
[es@192 node-9203]$ bin/elasticsearch -d
  • 后续可以考虑做成系统服务,start|stop|restart就方便了,然后加入开启自启动。具体可以参考我的Linux开机自启动相关文章,改吧改吧就行了,标特否~

》查看集群状态

  • 请求方式:GET
  • 发送请求:
curl -X GET http://192.168.3.201:9201/_cat/nodes?v
  • 响应结果:
ip            heap.percent ram.percent cpu load_1m load_5m load_15m node.role master name
192.168.3.201           57          93  31    5.45    1.97     0.92 dilmrt    *      node-9201
192.168.3.201           68          93  28    5.45    1.97     0.92 dilmrt    -      node-9203
192.168.3.201           60          93  23    5.45    1.97     0.92 dilmrt    -      node-9202

》其他配置

  • 以下配置可能你会用到
# 选取master时需要参与的最少候选主节点数,默认1。如果使用默认值,网络不好时可能出现脑裂问题。
discovery.zen.minimum_master_nodes: 1

# 跨域相关配置(head插件需要开启)
http.cors.allow-origin: "*"
http.cors.enabled: true
http.max_content_length: 100mb

# 网络其他配置
gateway.recover_after_nodes: 2
network.tcp.keep_alive: true
network.tcp.no_delay: true
transport.tcp.compress: true

# 集群内同时启动的数据任务个数,默认是2个
cluster.routing.allocation.cluster_concurrent_rebalance: 4
# 添加或删除节点及负载均衡时并发恢复的线程个数,默认4个
cluster.routing.allocation.node_concurrent_recoveries: 8
# 初始化数据恢复时,并发恢复线程的个数,默认4个
cluster.routing.allocation.node_initial_primaries_recoveries: 8