问题描述 测试集群三台master,每个master上面的kube-apiserver都频繁的重启。登录其中一台master,发现kube-apiserver的内存占用特别高,每次重启完后内存很快就飙到了20G左右,而且还有继续增长的趋势。因为默认kube-apiserver的静态pod是没有设置m
一 原理 Velero 的基本原
一、 性能测试基础 1. 性能测试概述 性能测试分类 性能测试方式时通过模拟生产运行的业务压力量和使用场景组合,测试系统的性能是否满足生产性能要求,通俗地讲,这种方法就是要在特定的运行条件下验证系统的能力状况。
一、QPS 每秒查询QPS:Queries Per Second意思是“每秒查询率”,是一台服务器每秒能够相应的查询次数,是对一个特定的查询服务器在规定时间内所处理流量多少的衡量标准。互联网中,作为域名系统服务器的机器的性能经常用每秒查询率来衡量。二、TPS 每秒事务TPS:是TransactionsPerSecond的缩写,也就是事务数/秒。它是软件测试结果的测量单位。一个事务是指一个客户机向服
本文最终的解决方式很简单,就是将
本文最终的解决方式很简单,就是将现有
使用crio容器运行时,部署ssh pod后,ssh root@127.0.0.1 后,出现 connection reset by 127.0.0.1 port 22. 但是telnet 显示能通, 在pod中 ping 其他pod 出现 socket: Operation not permitt
由于master2 节点重新克隆了,造成etcd异常, 恢复过程 1. 从etcd集群中删除 master2 etcd # 登录集群的任意 ETCD Pod kubectl exec -it etcd-master sh -n kube-system # Pod 中设置登录 ETCD 的命令 exp
事件背景 因为 k8s 中采用大量的异步机制、以及多种对象关系设计上的解耦,当应用实例数 增加/删除、或者应用版本发
报错信息 kubelet summary_sys_containers.go: "Failed to get system container stats stats"
kustomize 是一个通过 kustomization 文件定制 kubernetes 对象的工具,它可以通过一些资源生成一些新的资源,也可以定制不同的资源的集合。 一个比较典型的场景是我们有一个应用,在不同的环境例如生产环境和测试环境,它的 yaml 配置绝大部分都是相同的,只有个别的字段不同
内核参数调优 我们先看看通过内核的哪些参数能够提高Ingress的性能。保证在高并发环境下,发挥Ingress的最大性能。 调大全连接队列的大小 TCP 全连接队列的最大值取决于 somaxconn 和 backlog 之间的最小值,也就是 min(somaxconn, backlog)。在高并发环
配置Nginx-Ingress 这里将NG的日志落盘,便于处理。 (1)、修改ConfigMap,如下: # Source: ingress-nginx/templates/controller-configmap.yaml apiVersion: v1 kind: ConfigMap metada
ingress 转发到一个pod时 ,请求全部为200, 增加到两个pod时,返回
安装 Metrics server Metrics Server 是 Kubernetes 内置自动缩放管道的可扩展、高效的容器资源指标来源。 Metrics Ser
1、TPS: Transactions Per Second,意思是每秒事务数。一个事务是指客户端向服务器发送请求然后服务器做出反应的
网络数据包截获分析工具。支持针对网络层、协议、主机、网络或端口的过滤。并
集群指标 集群 CPU 利用率 目录 表达式 详细信息 1 - (avg(irate(node_cpu_seconds_total{mode="idle"}[5m])) by (instance)) 摘要 1 - (avg(irate(node_cpu_seconds_total{mode="idl
文件中某一行结尾有空格,示例中是最后一行(使用vim工具:set invlist)
采集器categraf集成了prometheus的agent mode模式,prometheus所支持服务发现模式,例如docker_swarm_ad_configs,docker_sd_config, dns_sd_configs, http_sd_configs都可以和categraf无缝对接。
使用的 rancher出现 Internal error occurred: failed calling webhook "ranch
简述: 最近k8s master内存压力比较大, pod数量越来越多, 打算对cpu 内存进行扩容 扩容有 cpu 4C/8G, 变更成8C/16G, 通过升级后,发现apiserver 静态pod无法启动, 在kubelet 配置文件中发现 --cpu-manager-policy=static配
zk集群规划 10个客户端节点: 3个zk节点 10-5-个客户端节点: 5 + 2OB 节点 = 7 zk节点 50-100个客户端节点: 5 + 6OB = 11zk节点 环境准备: 172.16.230.121 namenode1172.16.230.122 namenode2172.16.2
描述 mod_cluster是jboss的一个开源集群模块(基于httpd 2.2.x,也就是httpd2的一个模块),
1、Listen指令 及 PidFile 指令 Listen指令是为了设置监听套接字 。PidFile指令是为了指定httpd
zookeeper授权方式设置 一、设置授权 1.1、IP白名单方式 备注:对需要进行白名单设置的路径进行设置,此
Thanos[1] 和 VictoriaMetrics[2] 都是用来作为 Prometheus 长期存储
Thanos[1] 和 VictoriaMetrics[2] 都是用来作为 Prometheus 长期存储的成熟方案,其中 VictoriaMetrics 也开源了其集群版本[3],功能更加强大。这两种解决方案都提供了以下功能: 长期存储,可以保留任意时间的监控数据。 对多个 Prometheus
1.12 配置Linux内核(cilium必选)cilium和其他的cni组件最大的不同在于其底层使用了ebpf技术,而该技术对于Linux的系统内核版本有较高的要求,完成的要求可以查看官网的详细链接,这里我们着重看内核版本、内核参数这两个部分。 Linux内核版本默认情况下我们可以参考cilium
1.mod_cluster简介 mod_cluster 和mod_jk,mod_proxy类似,是一个基于httpd的负载平衡项目能够代理请求给基于Tomcat 网络服务器集群(支持任何独立的Tomcat,独立的JBoss Web或者JBoss AS的嵌入JBoss Web)。mod_cluster
Copyright © 2005-2023 51CTO.COM 版权所有 京ICP证060544号