公益镜像加速站
Automate application management on Kubernetes. | OpenKruiseopenkruiseOpenKruise 是什么?OpenKruise 是一个基于 Kubernetes 的扩展套件,主要聚焦于云原生应用的自动化,比如 部署、发布、运维以及可用性防护。OpenKruise 提供的绝大部分能力都是基于 CRD 扩展来定义,它们不存在于任何
低版本crictl 没有删除无效镜像命令,需要升级版本wget https://github.com/kubernetes-sigs/cri-tools/releases/download/v1.25.0/crictl-v1.25.0-linux-amd64.tar.gztar -zxf crictl-v1.25.0-linux-amd64.tar.gz mv crictl /bin/crictl
云原生开发模式nocalHost配置文件configProperties: version: v2 application: name: bsc-content-center manifestType: rawManifestLocal #------指定使用本地yaml文件部署模式 resourcePath: ["manifest"] #------指定代
使用kubeadm部署k8s集群默认证书是一年期限,每年需要更换可通过设置调整成100年期限检查证书过期时间# For kubeadm provisioned clusters kubeadm certs check-expiration # For all clusters cd /etc/kubernetes/pki openssl x509 -noout -dates -in /etc/
1、找到pod所在节点2、pod里面执行cat /sys/class/net/eth0/iflink3、在节点上面,查找/sys/class/net/veth*/ifindex 结果与第二步相等4、在节点上tcpdump -i veth*(第三步查找到的虚拟网卡) -w /mp/tcpdump.cap
kubelet使用了一个Node Allocatable参考链接kubelet使用了一个Node Allocatable - 滴滴滴 - 博客园 (cnblogs.com)让 K8s 秒变火葬场的 4 大“坑货”参考链接让 K8s 秒变火葬场的 4 大“坑货”_Node (sohu.com)k8s集群性能优化之kubelet配置资源预留参考链接(84条消息) k8s集群性能优化之kubelet配置
更新阿里云yumcat <<EOF | sudo tee /etc/apt/sources.listdeb http://mirrors.aliyun.com/ubuntu/ focal main restricted universe multiverse#deb https://mirrors.aliyun.com/kubernetes/apt kubernetes-xenial
一、污点(Taint) 节点亲和性,是Pod的一种属性(偏好或硬性要求),它使Pod被吸引到一类特定的节点Taint 则相反,它使节点能够排斥一类特定的 PodTaint 和 Toleration 相互配合,可以用来避免 Pod 被分配到不合适的节点上。每个节点上都可以应用一个或多个 taint ,这表示对于那些不能容忍这些 taint 的 Pod,是不会被该节点接受的。如果将 toleratio
Sealos基础Sealos 是一个 Go 语言开发的简单干净且轻量的 Kubernetes 集群部署工具, Sealos 能很好的支持在生产环境中部署高可用的 Kubernetes 集群。Sealos 特性与优势支持离线安装,工具与部署资源包分离,方便不同版本间快速升级。证书有效期默认延期至 99 年。工具使用非常简单。支持使用自定义配置文件,可灵活完成集群环境定制。使用内核进行本地负载,稳定性
k8s挂载云盘可通过节点上面执行lsblk查看对应挂载盘数据
k8s中的容器一般是通过deployment管理的,那么一次滚动升级理论上会更新所有pod,这由deployment资源特性保证的,但在实际的工作场景下,需要灰度发布进行服务验证,即只发布部分节点,这似乎与k8s的deployment原理相违背,但是灰度发布的必要性,运维同学都非常清楚,如何解决这一问题?最佳实践:定义两个不同的deployment,例如:fop-gate和fop-gate-can
rbac kubeconfig
cert manager
nginx常用配置转换nginx-ingress配置方式参考链接http://www.devopser.org/articles/2019/11/06/1573006159751.htmlk8s nginx 跨域和 https 配置参考链接https://juejin.cn/post/6844904005781422094ingress开启JWT参考链接https://
本文出自https://blog.csdn.net/qq_38664479/article/details/120272529
k8s nacos
本文出自https://www.cnblogs.com/chadiandianwenrou/p/11928080.html
背景环境:openshift3.11开发反映部署在容器中的java应用内存持续增长,只升不降,具体为:java应用部署在容器中,配置的jvm参数为-Xms1024m -Xmx1024m,容器memory request为1G, memory limit为4G,通过openshift的Pod metrics监控发现,应用消耗内存达到99%(只剩下3M),但是Pod处于Running状态,没有发生OO
K8S(18)容器环境下资源限制与jvm内存回收目录K8S(18)容器环境下资源限制与jvm内存回收一、k8s中的java资源限制与可能的问题方案1:通过JVM的Xms和Xmx参数限制方案2:通过容器的requests和limits参数控制方案3:容器参数和JVM参数共用二、解决问题三板斧1)采用JDK8-191以上的jdk版本2)使用JVM新的资源
Docker 可以通过读取 Dockerfile 中的指令自动构建镜像。Dockerfile 是一个文本文档,其中包含了用户创建镜像的所有命令和说明。一、 变量变量用 $variable_name 或者 ${variable_name} 表示。${variable:-word} 表示如果 variable 设置,则结果将是该值。如果 variable 未设置
熔断和限流架构图 在生产环境,我们一般使用限流和熔断技术来应对流量激增,牺牲部分用户的体验来保证生产环境的稳定。 Traefik 内熔断和限流是通过配置 middlewares 来实现,对流量进行匹配后,再进行中间件二次流量确认。 Traefik Middlewares 限流核心配置: apiVersion: traefik.containo.us/v1alpha1 kind: Middlewa
镜像缓存1.镜像缓存:在构建或者下载镜像时候,当镜像层已经存在的时候,直接使用使用缓存, 不需要进行重新构建镜像,如果我们希望在构建镜像时不使用缓存,可以在 docker build 命令中加上 –no-cache 参数。如果我们改变 Dockerfile 指令的执行顺序,或者修改或添加指令,都会使缓存失效。2.Dockerfile 在执行的时候,当有执行过相同的代码并且顺序也一致的情况下,就会使
基于Flux项目的云原生GitOps实践参考链接https://blog.csdn.net/weixin_38754564/article/details/100015513 如何使用Flux CD持续交付Kubernetes应用程序参考链接https://cloud.tencent.com/developer/article/1659450
1、集群环境中如何配置kubectl (有集群登录权限)要实现 kubectl get no 这种以很少命令参数的方式获取到 k8s 集群信息,下面介绍一种方法,这种方法一般是面向运维人员,有集群登录权限。还可以实施到部署k8s集群时,方便每个节点上执行访问。1、首先创建 k8s_env.sh 文件,填写如下相关环境配置变量,并放到 /etc/profile.d 目录下,source 后,使其生效
HPA 基本原理 kubectl scale 命令可以来实现 Pod 的扩缩容功能,但是这个毕竟是完全手动操作的,要应对线上的各种复杂情况,我们需要能够做到自动化去感知业务,来自动进行扩缩容。为此,Kubernetes 也为我们提供了这样的一个资源对象:Horizontal Pod Autoscaling(Pod 水平自动伸缩),简称HPA,HPA 通过监控分析一些控制器控制的所有 Pod 的负载
在使用k8s集群过程中,可能会遇到节点异常或需要节点升级的情况,但又不能影响节点中服务的正常运行,就要涉及到对pod信息迁移和node节点维护。维护主要分为两部分:pod驱逐、节点维护node节点维护查看k8s集群node节点情况[root@prod-k8s-master001 ~]# kubectl get nodeNAME STATUS
问题及原因k8s是通过sceduler来调度pod的,在调度过程中,由于一些原因,会出现调度不均衡的问题,例如:节点故障新节点被加到集群中节点资源利用不足这些都会导致pod在调度过程中分配不均,例如会造成节点负载过高,引发pod触发OOM等操作造成服务不可用其中,节点资源利用不足时是最容易出现问题的,例如,设置的requests和limits不合理,或者没有设置requests/limits都会造
Prometheus监控Kubernetes 集群节点及应用 对于Kubernetes的集群监控一般我们需要考虑一下几方面Kubernetes节点的监控;比如节点的cpu、load、fdisk、memory等指标内部系统组件的状态;比如kube-scheduler、kube-controller-manager、kubedns/coredns等组件的运行状态编排级的metrics;比如Deploy
通过 在Kubernetes上部署Nacos快速部署可以参考官网https://nacos.io/en-us/docs/use-nacos-with-kubernetes.html1 快速部署git clone https://github.com/nacos-group/nacos-k8s.git cd nacos-k8schmod +x quick-startup.sh ./quick-st
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号