Kubernetes安装与配置
硬件要求
1 CPU 至少2核
2 内存 至少3G
3 硬盘 至少50G
集群节点
k8s-master01 | 192.168.70.20 |
k8s-node1 | 192.168.70.21 |
k8s-node2 | 192.168.70.22 |
k8s-node3 | 192.168.70.23 |
查看centos系统版本命令:
cat /etc/centos-release
配置阿里云yum源
1.下载安装wget
yum install -y wget
2.备份默认的yum
mv /etc/yum.repos.d /etc/yum.repos.d.backup
3.设置新的yum目录
mkdir -p /etc/yum.repos.d
4.下载阿里yum配置到该目录中,选择对应版本
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
5.更新epel源为阿里云epel源
mv /etc/yum.repos.d/epel.repo /etc/yum.repos.d/epel.repo.backup
mv /etc/yum.repos.d/epel-testing.repo /etc/yum.repos.d/epeltesting.repo.backup
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
6.重建缓存
yum clean all yum makecache
7.看一下yum仓库有多少包
yum repolist
yum update
升级系统内核
rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-3.el7.elrepo.noarch.rpm
yum --enablerepo=elrepo-kernel install -y kernel-lt
grep initrd16 /boot/grub2/grub.cfg
grub2-set-default 0
reboot
查看centos系统内核命令
uname -r
uname -a
查看内存命令
free
free -h
查看硬盘信息
fdisk -l
centos7系统配置
关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
关闭selinux
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/sysconfig/selinux
setenforce 0
网桥过滤
vi /etc/sysctl.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.bridge.bridge-nf-call-arptables = 1
net.ipv4.ip_forward=1
net.ipv4.ip_forward_use_pmtu = 0
生效命令
sysctl --system
查看效果
sysctl -a|grep "ip_forward"
开启IPVS
安装IPVS
yum -y install ipset ipvsdm
编译ipvs.modules文件
vi /etc/sysconfig/modules/ipvs.modules
文件内容如下
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
赋予权限并执行
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules &&lsmod | grep -e ip_vs -e nf_conntrack_ipv4
重启电脑,检查是否生效
reboot
lsmod | grep ip_vs_rr
同步时间
安装软件
yum -y install ntpdate
向阿里云服务器同步时间
ntpdate time1.aliyun.com
删除本地时间并设置时区为上海
rm -rf /etc/localtime
ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
查看时间
date -R || date
命令补全
安装bash-completion
yum -y install bash-completion bash-completion-extras
使用bash-completion
source /etc/profile.d/bash_completion.sh
关闭swap分区
临时关闭:
swapoff -a
永久关闭:
vi /etc/fstab
将文件中的/dev/mapper/centos-swap这行代码注释掉
#/dev/mapper/centos-swap swap swap defaults 0 0
确认swap已经关闭:若swap行都显示 0 则表示关闭成功
free -m
hosts配置
vi /etc/hosts
文件内容如下:
cat <<EOF >>/etc/hosts
192.168.70.20 k8s-master01
192.168.70.21 k8s-node01
192.168.70.22 k8s-node02
192.168.70.23 k8s-node03
EOF
安装docker
阿里云开发者平台
开发者平台官网地址:可以参考阿里云官网提供的docker安装教程进行安装。
安装docker前置条件
yum install -y yum-utils device-mapper-persistent-data lvm21
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum makecache fas
查看docker更新版本
yum list docker-ce --showduplicates | sort -r
安装docker
yum -y install docker-ce
安装指定版本:
yum -y install docker-ce-18.09.8
可以通过docker version命令查看
docker-client版本:当前最新版本
docker-server版本为:18.09.8
开启docker服务
systemctl start docker
systemctl status docker
安装阿里云镜像加速器
mkdir -p /etc/docker
tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://7og0gdxn.mirror.aliyuncs.com"]
}
EOF
systemctl daemon-reload
systemctl restart docker
设置docker开启启动服务
systemctl enable docker
修改Cgroup Driv
修改cgroupdriver是为了消除安装k8s集群时的告警:
[WARNING IsDockerSystemdCheck]: detected “cgroupfs” as the Docker cgroup driver. The recommended driver is “systemd”. Please follow the guide at https://kubernetes.io/docs/setup/cri/......
修改daemon.json,新增:"exec-opts": ["native.cgroupdriver=systemd"]
{
"registry-mirrors": ["https://7og0gdxn.mirror.aliyuncs.com"],
"exec-opts": ["native.cgroupdriver=systemd"]
}
重启docker服务:
systemctl daemon-reload
systemctl restart docker
查看修改后状态: docker info | grep Cgroup
使用kubeadm快速安装
安装yum源
新建repo文件
vi /etc/yum.repos.d/kubernates.repo
文件内容
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
更新缓存
yum clean all
yum -y makecache
验证源是否可用
yum list | grep kubeadm
如果提示要验证yum-key.gpg是否可用,输入y。 查找到kubeadm。显示版本
查看k8s版本
yum list kubelet --showduplicates | sort -r
安装k8s-1.17.5
yum install -y kubelet-1.17.5 kubeadm-1.17.5 kubectl-1.17.5
设置kubelet
增加配置信息
如果不配置kubelet,可能会导致K8S集群无法启动。为实现docker使用的cgroupdriver与kubelet 使用的cgroup的一致性。
vi /etc/sysconfig/kubelet
KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"
设置开机启动
systemctl enable kubelet
初始化镜像(选学部分)
如果是第一次安装k8s,手里没有备份好的镜像,可以执行如下操作。也可以使用资料包中的镜像 备份跳过本章节学习内容。
查看安装集群需要的镜像
kubeadm config images list
编写执行脚本
mkdir -p /data
cd /data
vi images.sh
#!/bin/bash
# 下面的镜像应该去除"k8s.gcr.io"的前缀,版本换成kubeadm config images list命令获取 到的版本
images=(
kube-apiserver:v1.17.5
kube-controller-manager:v1.17.5
kube-scheduler:v1.17.5
kube-proxy:v1.17.5
pause:3.1
etcd:3.4.3-0
coredns:1.6.5
)
for imageName in ${images[@]} ;
do
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName
docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
done
执行脚本
给脚本授权
chmod +x images.sh
执行脚本
./images.sh
保存镜像:
docker save -o k8s.1.17.5.tar \
k8s.gcr.io/kube-proxy:v1.17.5 \
k8s.gcr.io/kube-apiserver:v1.17.5 \
k8s.gcr.io/kube-controller-manager:v1.17.5 \
k8s.gcr.io/kube-scheduler:v1.17.5 \
k8s.gcr.io/coredns:1.6.5 \
k8s.gcr.io/etcd:3.4.3-0 \
k8s.gcr.io/pause:3.1
导入镜像
master节点需要全部镜
docker load -i k8s.1.17.5.tar
node节点需要kube-proxy:v1.17.5和pause:3.1,2个镜像
docker load -i k8s.1.17.5.node.tar
初始化集群
配置k8s集群网络
calico官网地址
官网下载地址:
https://docs.projectcalico.org/v3.14/manifests/calico.yaml
github地址:
https://github.com/projectcalico/calico
镜像下载:
docker pull calico/cni:v3.14.2
docker pull calico/pod2daemon-flexvol:v3.14.2
docker pull calico/node:v3.14.2
docker pull calico/kube-controllers:v3.14.2
配置主机名和ip
配置hostname:
hostnamectl set-hostname k8s-master01
配置ip地址
记录快照文件,克隆出k8s-node01:192.168.70.21,k8s-node01:192.168.70.22,k8s-node01:192.168.70.23工作节点
初始化集群信息:calico网络
kubeadm init --apiserver-advertise-address=192.168.70.20 --kubernetes-version v1.17.5 --service-cidr=10.1.0.0/16 --pod-network-cidr=10.81.0.0/16
执行配置命令
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
在node节点执行
kubeadm join 192.168.70.20:6443 --token qlqbbi.bhuzv091i8uvgkw4 \
--discovery-token-ca-cert-hash sha256:3c34ac60becb69e3aa3516e1ab173913ad9b50843ddc9f8ad85415544bfe08a6
kubectl命令自动补全
echo "source <(kubectl completion bash)" >> ~/.bash_profile
source ~/.bash_profile
发送邮件问题
在 bash 中设置当前 shell 的自动补全,要先安装 bash-completion 包。
echo "unset MAILCHECK">> /etc/profile
source /etc/profile
在你的 bash shell 中永久的添加自动补全
yum-key.gpg验证未通过
wget https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
wget https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
rpm --import yum-key.gpg
rpm --import rpm-package-key.gpg
查看节点状态
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6JrDr2ZD-1602566340822)(C:\Users\liuxiaosong\AppData\Roaming\Typora\typora-user-images\image-20201008202954792.png)]
cd /data
wget https://docs.projectcalico.org/v3.14/manifests/calico.yaml
kubectl apply -f calico.yaml
kubectl get nodes
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-iEjg3lAY-1602566340826)(C:\Users\liuxiaosong\AppData\Roaming\Typora\typora-user-images\image-20201008203655045.png)]
k8s使用
命名空间namespace操作
kubectl get namespace
查看所有命名空间的pod资源
kubectl get pod --all-namespaces
kubectl get pod -A
简写命令
kubectl get ns
创建NameSpace
kubectl create namespace lagou
简写命令
kubectl create ns lagou
删除NameSpace
kubectl delete namespace lagou
简写命令 kubectl delete ns lagou
说明:default 用户创建的pod默认在此命名空间 kube-public 所有用户均可以访问,包括未认证用户 kube-node-lease kubernetes集群节点租约状态,v1.13加入 kube-system kubernetes集群在使
pod操作
查看default命名空间下的pods
kubectl get pods
查看kube-system命名空间下的pods
kubectl get pods -n kube-system
查看所有命名空间下的pods
kubectl get pod --all-namespaces
kubectl get pod -A
#下载镜像,K8S集群的每一个节点都需要下载镜像
docker pull tomcat:9.0.20-jre8-alpine
运行pod
kubectl run tomcat9-test --image=tomcat:9.0.20-jre8-alpine --port=8080
kubectl get pod kubectl get pod -o wide
使用pod的IP访问容器 crul ***:8080
扩容
kubectl scale --replicas=3 deployment/tomcat9-test
kubectl get deployment
kubectl get deployment -o wide
使用deployment的IP访问pod
创建服务
kubectl expose deployment tomcat9-test --name=tomcat9-svc --port=8888 -target-port=8080 --protocol=TCP --type=NodePort
kubectl get svc
kubectl get svc -o wide
访问服务端口 curl 10.105.225.0:8888
访问集群外端口 http://192.168.70.20:31147/
集群信息查看
kubectl cluster-info
kubectl get cs
kubectl get nodes
查看详细信息
kubectl describe pod tomcat-test
idea开发工具插件安装
idea插件官网地址:https://plugins.jetbrains.com/plugin
查看idea版本找到对应的版本下载进行离线安装
settings->plugins->Install Plugin from Disk->插件安装目录
ployment
kubectl get deployment -o wide
使用deployment的IP访问pod
创建服务
kubectl expose deployment tomcat9-test --name=tomcat9-svc --port=8888 -target-port=8080 --protocol=TCP --type=NodePort
kubectl get svc
kubectl get svc -o wide
访问服务端口 curl 10.105.225.0:8888
访问集群外端口 http://192.168.70.20:31147/
集群信息查看
kubectl cluster-info
kubectl get cs
kubectl get nodes
查看详细信息
kubectl describe pod tomcat-test
idea开发工具插件安装
idea插件官网地址:https://plugins.jetbrains.com/plugin
查看idea版本找到对应的版本下载进行离线安装
settings->plugins->Install Plugin from Disk->插件安装目录
安装完成后重启idea开发工具