在内网中搭建 Chrony 时间服务器并让其他主机同步时间安装 Chrony首先,确保时间服务器和需要同步时间的客户端主机上都已安装 Chrony。# 在基于 RHEL/CentOS 的系统上 sudo yum install chrony # 在基于 Debian/Ubuntu 的系统上 sudo apt install chrony配置时间服务器(服务端)编辑 Chrony 配置文件 /etc
解决K8s环境中kkfileview HTTPS预览SSL证书验证失败问题kkFileView 是一款开源的在线文件预览工具,能直接在浏览器中查看各种格式的文档,而无需下载或安装特定软件。问题描述项目使用开源的 kkFileView 进行文件在线预览,采用 K8s 部署方式。HTTP IP 访问:文件预览功能正常。HTTPS 域名访问:无法预览文件。预览文件时,kkFileView 浏览器页面报错
解决K8s中Java服务日志时间与容器时间不一致问题在排查日志的时候发现日志的时间不对,但是进入容器后发现容器的时间是正常的。以下是我的排查过程和解决方法。# 日志时间 [root@i ~]# kubectl logs -n aqsc kkfile-deployment-77c87fbff9-gf26n 2025-09-10 03:30:55.981 INFO 1 --- [
Tomcat性能优化实战:JVM与线程池配置详解前言Tomcat作为Java Web应用的核心服务器,其性能优化是确保应用高效稳定运行的关键。据行业统计,60%的Java服务性能故障都与容器配置不当直接相关。本文将深入探讨Tomcat性能优化的两个核心领域:JVM优化和线程池优化,基于实战经验为您提供具体配置方案。1 JVM优化:给服务器"扩容"的艺术JVM是Tomcat运行的基石,其配置直接影响
Docker、Kubernetes 与 Containerd:深入解析容器生态核心关系容器技术的协同之道:从底层运行时到上层编排平台的深度剖析。Docker、Kubernetes 和 Containerd 是容器技术领域中三个关键但角色不同的项目。理解它们各自的定位和协作方式,有助于更好地运用容器技术。本文将解析这三者的核心关系。1 核心组件定位1.1 Containerd:专注的容器运行时引擎C
解决NFS挂载导致df命令卡死的问题分析问题描述在Linux系统中使用df命令查看磁盘使用情况时,命令执行后无响应,出现卡死现象。通过strace df命令跟踪系统调用,发现卡顿发生在NFS挂载点查询环节。检查挂载信息后,确认存在NFSv4.2挂载。尝试使用umount和umount -f卸载挂载点均失败,相关检查命令如lsof或fuser也无法正常执行。最终通过umount -lf命令成功强制卸
kubeget top nodes 报错[root@k8s-master3 ~]# kubectl top nodes W0916 22:00:02.002953 26048 top_node.go:119] Using json format to get metrics. Next release will switch to protocol-buffers, switch early
在银河麒麟V10操作系统(ARM64架构)上离线部署Docker的完整方案。第一步:环境准备与规划在开始之前,请确认你的系统环境符合以下要求:操作系统:银河麒麟(KylinOS)V10 服务器版,这是我国自主研发的高安全等级操作系统,已广泛应用于党政军、金融、能源等关键领域架构:ARM64(aarch64,如华为鲲鹏920处理器)。你的系统信息显示为 aarch64,这一点非常重要,因为它决定了你
NGINX已经安装完成,直接安装keepalived1、安装eepalived#两台机器都要执行 yum -y install keepalived2、检查nginx存活脚本# 两台机器都要执行 cat > /etc/keepalived/check_nginx.sh << 'EOF' #!/bin/bash HA_NGINX_PID=$(pidof nginx | awk '{
Ansible自动化部署Nginx集群一、环境准备与Ansible配置节点规划1、控制节点:安装Ansible(yum -y install ansible)yum -y install ansible受管节点:确保所有节点SSH可达,建议配置相同密码或密钥在/etc/ansible/hosts配置主机2、主机清单vim /etc/ansible/hosts #或者写 10.1.1.[110:1
W: Failed to fetch https://mirrors.aliyun.com/docker-ce/linux/ubuntu/dists/jammy/InRelease Certificate verification failed: The certificate is NOT trusted. The certificate issuer is unknown. &n
一、环境准备1. 安装Telnet备用连接(关键!)#安装telnet yum -y install telnet telnet-server xinetd systemctl enable --now xinetd systemctl enable --now telnet.socket2. 安装编译依赖# 安装依赖 yum install perl-IPC-Cmd perl-Data-
1.服务端搭建a.安装ntpyum -y install ntp*b.配置文件vim /etc/ntp.conf# the administrative functions. restrict 127.0.0.1 restrict ::1 # Hosts on local network are less restricted. restrict 172.17.0.0 mask 255.255.
1. 安装 reposync 命令[root@V10SP1-1 ~]# yum install -y dnf-plugins-core备份yummkdir /repo && mv /etc/yum.repos.d/* /repo建立aliyun yum库wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.
Git命令使用一、上传代码1.初始化本地Git名字含义git init初始化本地仓库目录git config --global邮箱,用户名,颜色git add提交数据高缓冲区(暂存区)git add . (所有文件) 或 git add 文件git commit把暂存区提交到版本库(本地仓库 git commit -m "标记/说明"git status显示工作空间状态 红色表示在工作区绿色表示在
将 Kubernetes 节点上的 kubelet 数据存储目录从 /var/lib/kubelet迁移到 /data下。迁移步骤1. 封锁节点(避免新 Pod 调度)kubectl cordon <节点名称> # 标记节点为不可调度 kubectl taint nodes <节点名称> specialnode=exclusivenode:NoSchedule
将 etcd 数据目录从 /var/lib/etcd迁移到 /data/etcd一、创建新目录并迁移数据停止 etcd 服务sudo systemctl stop etcd迁移数据sudo mkdir -p /data/etcd sudo chown etcd:etcd /data/etcd # 确保用户权限(用户根据实际环境调整) sudo chmod 700 /data/etcd
因为安装的时候目录没有修改使用的默认目录,如果从新安装k8s需要重启服务器比较麻烦,直接更改目录风险提示:操作前务必备份数据,并在低峰期进行。测试环境验证后再上生产风险提示:操作前务必备份数据,并在低峰期进行。测试环境验证后再上生产风险提示:操作前务必备份数据,并在低峰期进行。测试环境验证后再上生产在 Kubernetes 环境中修改 containerd 的存储目录(默认 /var/lib/co
标准下线流程隔离节点(禁止新Pod调度)kubectl cordon <节点名称> # 标记为 SchedulingDisabled验证状态:kubectl get nodes检查节点状态变为 Ready,SchedulingDisabled驱逐工作负载(保留DaemonSet)kubectl drain <节点名称> --ignore-daemonsets --del
有几台服务器因为长期cpu使用率为0,cpu使用率长期低于30的要回收,所以写个占用cpu资源的程序,保持cpu一直不低于30%[root@jenkins cpu]# cat cpu.gopackage main import ( "fmt" "io/ioutil" "os" "os/signal" "runtime" "syscall" "time" ) func main()
Kubernetes容器时区同步:挂载主机/etc/localtime最佳实践场景痛点:容器默认使用UTC时区(与中国标准时间CST相差8小时),导致日志、计划任务等时间显示错误。完整解决方案通过hostPath将宿主机的时区文件挂载到容器内,强制容器使用节点服务器时区:apiVersion: apps/v1 kind: Deployment metadata: name: nginx-pro
K8s为阿里云的ACK集群不过和自建的没啥区别版本为1.20.11之前写了K8s Rabbit MQ operator的安装,这次说下安装延迟队列插件1.首先下载插件https://github.com/rabbitmq/rabbitmq-delayed-message-exchange/releases/tag/v3.13.0 wget https://github.com/rabbitmq/r
Log-PilotLog-Pilot 是由阿里云开源的一款智能容器日志采集工具,专为 Docker 和 Kubernetes 环境设计,旨在解决容器化场景下日志收集的复杂性问题。它通过声明式配置和动态发现机制,高效管理容器标准输出(stdout)及内部文件日志,并支持多种日志存储后端。一、概述与核心定位Log-Pilot 专注于自动化容器日志管理,尤其适用于动态调度的容器环境(如 Kubernet
Kafka消息队列zookeeper+kafka做kafka最初一定需要zookeeper ,从2.8版本开始自带 ZooKeeper 。在此之前的版本需要单独安装ZooKeeper,但从2.8版本开始,Kafka自带了ZooKeeper,简化了部署过程今天我们安装的是2.4.1需要zookeeper的一、ZooKeeper在Kafka中的核心作用1.注册中心与元数据管理ZooKeeper充当Ka
部署eck operatorkubectl create -f https://download.elastic.co/downloads/eck/2.10.0/crds.yaml kubectl apply -f https://download.elastic.co/downloads/eck/2.10.0/operator.yaml kubectl -n elastic-system get
rabbitmq-docker-compose启动Docker Compose 配置[root@redis-nacos rabbitmq]# cat docker-compose.yml version: '3.3' services: rabbitmq: image: registry.cn-hangzhou.aliyuncs.com/fengqichen/rabbitmq:3.1
MinIO分布式集群部署+高可用基于生产环境实践,融合高可用设计、安全加固与性能调优一、架构设计优化节点规划遵循偶数节点原则:最小4节点(容忍1节点故障),推荐8节点(容忍3节点故障) 节点配置需完全一致:同型号硬件、相同磁盘数量、同版本OS(避免异构环境)存储设计每节点配置4-8块磁盘,采用JBOD模式(非RAID!) 存储路径必须为独立磁盘(禁止挂载到/分区) 文件系统:强制使用 XFS(高性
Rabbit MQ OperatorRabbitMQ Operator 是专为 Kubernetes 环境设计的自动化管理工具,用于简化 RabbitMQ 集群的部署、运维和扩展。它通过自定义资源定义(CRD)封装了 RabbitMQ 的核心能力,使消息队列在云原生环境中实现高效运维。什么是kubernetes operatorKubernetes Operator 是一种用于扩展 Kuberne
一、核心组件与功能RocketMQ 的分布式架构由以下核心组件协同工作:1.NameServer作用:轻量级服务发现与路由中心,提供 Broker 动态注册与元数据管理。 工作机制: Broker 启动时向所有 NameServer 注册路由信息(IP、端口、Topic 配置等)。 通过 30 秒心跳保活,120 秒超时自动剔除失效节点。 生产者和消费者通过定期拉取(默认 30 秒)更新本地路由缓
当忘记自己电脑密码,无法进入桌面时,可以借助朋友或者网吧电脑,制作一个u 盘 PE 系统,再把 u 盘插入自己电脑,进入 PE 系统里修改或者清除密码。需要注意:这种密码修改方式只对电脑本地账户生效,即只对在自己电脑上登录过的账户有用!具体操作步骤如下:首先在朋友或者网吧电脑上插入一块 u 盘,注意制作 PE 会格式化 u 盘,需要提前备份好 u 盘数据,下载免费 P
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号