目录

一、搭建etcd集群

1、静态部署(前提) 

2、集群搭建  

①、安装服务(参考etcd基本介绍)

②、编辑etcd.conf文件,添加集群信息注意修改对应的ip

③、为节点etcd01创建一个etcd服务 /etc/systemd/system/etcd.service

④、因为需要跨主机通信,需要开放防火墙端口

⑤、启动

⑥、启动可能报错信息

⑥、服务相关指令

3、集群测试

①、各节点重启启动完成后,在任意节点可查看所有集群节点信息

②、http命令 


一、搭建etcd集群


etcd 构建自身高可用集群主要有三种形式:


  • 静态发现: 预先已知etcd集群中有哪些节点,在启动时通过--initial-cluster参数直接指定好etcd的各个节点地址
  • etcd动态发现:

静态配置前提是在搭建集群之前已经提前知道各节点的信息,而实际应用中可能存在预先并不知道各节点 ip 的情况,

这时可通过已经搭建的 etcd 来辅助搭建新的 etcd 集群。通过已有的 etcd 集群作为数据交互点,然后在扩展新的集群时

实现通过已有集群进行服务发现的机制。比如官方提供的: discovery.etcd.io


  • DNS动态发现: 通过DNS查询方式获取其他节点地址信息

1、静态部署(前提)


以下为 2 台主机信息 ( 需要打开虚拟机 , 请根据自己电脑配置量力而行 )




外网 kubernetes 搭建etcd集群 etcd集群部署_重启


通常都是将集群节点部署为 3 , 5 , 7 , 9 个节点,为什么不能选择偶数个节点?

1. 偶数个节点集群不可用风险更高,表现在选主过程中,有较大概率或等额选票,从而触发下一轮选举。

2. 偶数个节点集群在某些网络分割的场景下无法正常工作。当网络分割发生后,将集群节点对半分割开。

此时集群将无法工作。按照 RAFT 协议,此时集群写操作无法使得大多数节点同意,从而导致写失败,集群无法正常工作


请确保两台主机中都已经安装好了 etcd 服务并能正常启动 

2、集群搭建  

两台主机都需要以下操作!!!!!

①、安装服务(参考etcd基本介绍)

②、编辑etcd.conf文件,添加集群信息注意修改对应的ip

#########################################################
 ######  请根据各节点实际情况修改配置:1/3/4/5/6/7  ######
 #########################################################
 #[Member]
 #1.节点名称,必须唯一
 ETCD_NAME="etcd01"#2.设置数据保存的目录
 ETCD_DATA_DIR="/var/lib/etcd"#3.用于监听其他etcd member的url
 ETCD_LISTEN_PEER_URLS="http://192.168.129.123:2380"#4.该节点对外提供服务的地址
 ETCD_LISTEN_CLIENT_URLS="http://192.168.129.123:2379,http://127.0.0.1:2379"#[Clustering]
 #5.对外公告的该节点客户端监听地址
 ETCD_ADVERTISE_CLIENT_URLS="http://192.168.129.123:2379"#6.该节点成员对等URL地址,且会通告集群的其余成员节点
 ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.129.123:2380"#7.集群中所有节点的信息
 ETCD_INITIAL_CLUSTER="etcd01=http://192.168.129.123:2380,etcd02=http://192.168.129.124:2380"#8.创建集群的token,这个值每个集群保持唯一
 ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"#9.初始集群状态,新建集群的时候,这个值为new;
 ETCD_INITIAL_CLUSTER_STATE="new"#10.flannel操作etcd使用的是v2的API,而kubernetes操作etcd使用的v3的API
 #   为了兼容flannel,将默认开启v2版本,故配置文件中设置 
 ETCD_ENABLE_V2="true"

修改/etc/etcd/etcd.conf文件后,要先删除/var/lib/etcd目录下保存的数据,再重新启用服务,不然失败  

cd / var / lib / etcd && rm - rf *

③、为节点etcd01创建一个etcd服务 /etc/systemd/system/etcd.service

外网 kubernetes 搭建etcd集群 etcd集群部署_配置文件_02

 

[Unit]
 Description=Etcd Server
 Documentation=https://github.com/etcd-io/etcd
 After=network.target
  
 [Service]
 User=root
 Type=notify
 ## 根据实际情况修改EnvironmentFile和ExecStart这两个参数值
 ## 1.EnvironmentFile即配置文件的位置,注意“-”不能少
 EnvironmentFile=-/etc/etcd/etcd.conf
 ## 2.ExecStart即etcd启动程序位置
 ExecStart=/usr/local/bin/etcd
 Restart=always
 RestartSec=10s
 LimitNOFILE=65536
  
 [Install]
 WantedBy=multi-user.target

 重新读取系统文件

systemctl daemon - reload

④、因为需要跨主机通信,需要开放防火墙端口

firewall   -   cmd  
  -- 
  zone 
  = 
  public  
  -- 
  add 
  - 
  port 
  = 
  2379 
  / 
  tcp  
  -- 
  permanent


外网 kubernetes 搭建etcd集群 etcd集群部署_重启_03

firewall-cmd --zone=public --add-port=2380/tcp --permanent

外网 kubernetes 搭建etcd集群 etcd集群部署_etcd_04

重启防火墙 

firewall-cmd --reload

外网 kubernetes 搭建etcd集群 etcd集群部署_etcd_05

 

查看已经开放的防火墙 

firewall-cmd --list-port

外网 kubernetes 搭建etcd集群 etcd集群部署_重启_06

 

⑤、启动

外网 kubernetes 搭建etcd集群 etcd集群部署_微服务_07

⑥、启动可能报错信息

master-16 etcd[25461]: request cluster ID mismatch (got bdd7c7c32bde1208 want 698851d67fea3c17)

原因 集群ip地址变化后,除了修改/etc/etcd/etcd.conf 文件并重新启用服务外,还需要删除/var/lib/etcd目录下保存的数据

解决办法 删除了etcd集群所有节点中的--data_dir的内容

⑥、服务相关指令

systemctl daemon   -   reload 重新读取配置文件
  
systemctl enable etcd 开机自启
  
systemctl start etcd 启动
  
systemctl status etcd 查看状态
  
systemctl stop etcd 停止
  
systemctl restart etcd 重启

3、集群测试

①、各节点重启启动完成后,在任意节点可查看所有集群节点信息

etcdctl member list

外网 kubernetes 搭建etcd集群 etcd集群部署_配置文件_08

etcdctl member list -w table

外网 kubernetes 搭建etcd集群 etcd集群部署_微服务_09

②、http命令

etcdctl    --   endpoints   =   http 
  : 
  //192.168.129.123:2379,http://192.168.129.124:2379endpoint health 
  
etcdctl    --   endpoints   =   http 
  : 
  //192.168.27.120:2379 endpoint health 
  
etcdctl    --   endpoints   =   http 
  : 
  //192.168.27.129:2379 member list -w table