deploy[root@m-1 pv-pvc]# cat deploy.yaml apiVersion: apps/v1kind: Deploymentmetadata: name: nginx-dep1 namespace: defaultspec: replicas: 1 selector: matchLabels: app: nginx template: metadata: labels: app: nginx..
deploy.yaml[root@m-1 nfs-example]# cat nfs-nginx.yaml apiVersion: apps/v1kind: Deploymentmetadata: name: nginx-dep1spec: replicas: 1 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec:
基于Docker本地运行Kubernetes概览下面的指引将高速你如何通过Docker创建一个单机、单节点的Kubernetes集群。下图是最终的结果:先决条件你必须拥有一台安装有Docker的机器。你的内核必须支持 memory and swap accounting 。确认你的linux内核开启了如下配置:CONFIG_RESOURCE_COUNTERS=yCONFIG_MEMCG=yCONFIG_MEMCG_SWAP=yCONFIG_MEMCG_SWAP_ENABLE
以Volume形式挂载cm到podredis.properties[root@m-1 redis]# cat redis.properties redis.host=127.0.0.1redis.port=6379redis.password=12345602_use-cm.yaml[root@m-1 redis]# cat 02_use-cm.yaml apiVersion: v1kind: Podmetadata: name: mypodspec: container..
参考链接:Kubernetes:HPA 详解-基于 CPU、内存和自定义指标自动扩缩容
1. nodePortnodePort提供了集群外部客户端访问service的一种方式,:nodePort提供了集群外部客户端访问service的端口,即nodeIP:nodePort提供了外部流量访问k8s集群中service的入口。比如外部用户要访问k8s集群中的一个Web应用,那么我们可以配置对应service的type=NodePort,nodePort=30001。其他用户就可以通过浏览器http://node:30001访问到该web服务。而数据库等服务可能不需要被外界访问,只需被内部服.
编写rbac和storageclass资源清单nfs-rbac.yamlrbac鉴权设置nfs server设置nfs客户端与server端数据同步mkdir -p /home/nfsmount && mount -t nfs 192.168.116.101:/nfs/data /home/nfsmount---apiVersion: v1kind: ServiceAccountmetadata: name: nfs-provisioner---kind:
安装nfsserver和client端都执行yum install nfs-utils rpcbind -ysystemctl start nfssystemctl start rpcbindsystemctl enable nfssystemctl enable rpcbind部署nfs-provisionernfs-rbac.yamlrbac鉴权设置nfs server设置nfs客户端与server端数据同步mkdir -p /home/nfsmount &&
比如:根据nslookup查找其所在的软件包–yum provides */nslookup[root@k8s-n0 deploy]# yum provides */nslookup已加载插件:fastestmirrorDetermining fastest mirrors * base: mirrors.aliyun.com * extras: mirrors.aliyun.com * updates: mirrors.aliyun.combase/7/x86_64/filelists_
kubectl describe node k8s-node1 获取节点的详细信息kubectl run --help 根据镜像创建POD副本kubectl run nginx-deploy --image=nginx --port=80 --replicas=1kubectl get pods -o wide[root@k8s-master ~]# kubectl get pods -o wideNAME READY STATUS RESTARTS AGE IP NODE NOMINATED N
k8s kube-dns 和服务发现服务发现kubernetes 提供了 service 的概念可以通过 VIP 访问 pod 提供的服务,但是在使用的时候还有一个问题:怎么知道某个应用的 VIP?比如我们有两个应用,一个 app,一个 是 db,每个应用使用 rc 进行管理,并通过 service 暴露出端口提供服务。app 需要连接到 db 应用,我们只知道 db 应用的名称,但是并不知道它的 VIP 地址。最简单的办法是从 kubernetes 提供的 API 查询。但这是一个糟糕的做法,首先每
目录k8s服务发现Service理解Service的实现模型userspace代理模式iptables代理模式ipvs代理模式Service定义Service配置清单重要字段创建ClusterIP类型Service创建NodePort类型ServicePod的会话保持Headless无头Service参考资料Kubernetes之(十)服务发现Service理解Service是对一组提供相同功能的Pods的抽象,并为它们提供一个统一的入口。借助Se
k8s集群dns问题解决办法目录故障类型解决办法测试脚本busyboxsh故障类型我遇到的几次k8s集群的dns问题,大致分为几种:网络插件的pod挂掉了服务是双网卡的情况服务器自身的网络问题,比如路由解决办法1、确认宿主机的网络访问情况,dns解析。因为pod一般是复制宿主机信息。ping 114.114.114.114cat /etc/resolvcentos7 可以在网卡配置dns覆盖resolv的配置,确认网卡中的dns删除掉。2、确认服务器路由,都使
删除所有为stop状态的容器:docker container prune
搭建k8s集群时DNS无法解析问题的处理过程问题描述在搭建Kubernetes集群过程中,安装了kube-dns插件后,运行一个ubuntu容器,发现容器内无法解析集群外域名,一开始可以解析集群内域名,一段时间后也无法解析集群内域名。$ nslookup kubernetes.defaultServer: 10.99.0.2Address 1: 10.99.0.2 kube-dns.kube-system.svc.cluster.localnslookup: can't resolve
k8s使用port-forward访问集群中的应用程序本文描述了如何使用 kubectl port-forward 访问 Kubernetes 集群中的 Redis Server。这种连接方式在实际进行Debug时非常有效。为Redis创建Deployment和Service转发本地端口到Pod的端口总结为Redis创建Deployment和Service创建 Redis Deployment,YAML文件如下:apiVersion: apps/v1kind: Deployment
一、简介Elasticsearch 是一个分布式的搜索和分析引擎,可以用于全文检索、结构化检索和分析,并能将这三者结合起来。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便,轻松扩展服务节点,更能用于日志收集快速检索等等一些列功能。Kibana 是一个为 Elasticsearch 平台分析和可视化的开源平台,使用 Kibana 能够搜索、展示存储在 Elasticsearch 中的索引数据。使用它可以很方便用图表、表格、地图展示和分析数据。Helm:Helm(注意:helm 2.
[root@k8s-n0 workspace]# sudo helm install postgresql postgresql-8.6.4.tgz -n dmgeo-libWARNING: This chart is deprecatedNAME: postgresqlLAST DEPLOYED: Thu Feb 4 21:37:55 2021NAMESPACE: dmgeo-libSTATUS: deployedREVISION: 1TEST SUITE: NoneNOTES:Thi
KUBERNETES POD调度失败问题(INSUFFICIENT PODS)K8S常用配置文件目录
部署oracle[root@k8s-n0 oracle]# cat all-in-one.yaml apiVersion: v1kind: Servicemetadata: name: oralce-svc namespace: dmgeo-lib labels: app: oralcespec: type: NodePort ports: - port: 1521 targetPort: 1521 nodePort: 1521 name:
[root@k8s-n0 workspace]# helm repo add bitnami https://charts.bitnami.com/bitnami"bitnami" has been added to your repositories[root@k8s-n0 workspace]# helm repo updateHang tight while we grab the latest from your chart repositories......Successfully go
添加仓库:sudo helm repo add bitnami https://charts.bitnami.com/bitnami[root@k8s-n0 workspace]# helm repo listNAME URL azure http://mirror.azure.cn/kub
helm repo add loki https://grafana.github.io/loki/chartssueo helm install loki loki-stack-2.1.2.tgz -n dmgeo-lib参考链接:采用Helm部署Grafana-Loki日志采集系统k8s 通过heml安装lokihttps://grafana.github.io/loki/charts/
不同盘之间如果文件系统不同是会出现这种情况,可以调用系统命令‘mv’ 来解决。root@debian:/home/zxl/softwares/helm-about/workspace# ls /tmpcom.sangfor.dns_server_op_lock qipc_sharedmemory_ddepreload3d2e40298dc4556de0b9a3b1e41a1589ce69aecacom.sangfor.lockecagent
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号