亲和性,调度
时间戳tcpdump的所有输出打印行中都会默认包含时间戳信息.时间戳信息的显示格式如下hh:mm:ss.frac (nt: 小时:分钟:秒.(nt: frac未知, 需补充))此时间戳的精度与内核时间精度一致, 反映的是内核第一次看到对应数据包的时间(nt: saw, 即可对该数据包进行操作). 而数据包从物理线路传递到内核的时间, 以及内核花费在此包上的中断处理时间都没有算进来.命令使用tcpd
SMB/CIFS 解码tcpdump 已可以对SMB/CIFS/NBT相关应用的数据包内容进行解码(nt: 分别为'Server Message Block Common', 'Internet File System''在TCP/IP上实现的网络协议NETBIOS的简称'. 这几个服务通常使用UDP的137/138以及TCP的139端口). 原来的对IPX和NetBEUI SMB数据包的解码能力
TCP 数据包(注意:以下将会假定你对 RFC-793所描述的TCP熟悉. 如果不熟, 以下描述以及tcpdump程序可能对你帮助不大.(nt:警告可忽略,只需继续看, 不熟悉的地方可回头再看.).通常tcpdump对tcp数据包的显示格式如下:src > dst: flags data-seqno ack window urgent optionssrc 和 dst 是源和目的IP地址以及
简介用简单的话来定义tcpdump,就是:dump the traffic on a network,根据使用者的定义对网络上的数据包进行截获的包分析工具。 tcpdump可以将网络中传送的数据包的“头”完全截获下来提供分析。它支持针对网络层、协议、主机、网络或端口的过滤,并提供and、or、not等逻辑语句来帮助你去掉无用的信息。实用命令实例默认启动tcpdump普通情况下,直接启
在Linux中curl是一个利用URL规则在命令行下工作的文件传输工具,可以说是一款很强大的http命令行工具。它支持文件的上传和下载,是综合传输工具,但按传统,习惯称url为下载工具。语法:# curl [option] [url]常见参数:-A/--user-agent <string> 设置用户代理发送给服务器-b/--cookie <name=s
0、下载Orcle11Goracle10G/11G官方下载地址合集(直接迅雷下载)1、上传文件到服务器或虚拟机的/install目录下[root@myYUn install]# rz –y如果rz –y命令不能使用,可用如下方法解决:yum install lrzsz -y2、解压文件到当前目录:[root@myYUn install]# unzip linux.x64_11gR2
在Linux系统中,为了避免主机时间因为在长时间运行下所导致的时间偏差,进行时间同步(synchronize)的工作是非常必要的。Linux系统下,一般使用ntp服务来同步不同机器的时间。NTP 是网络时间协议(Network Time Protocol)的简称,干嘛用的呢?就是通过网络协议使计算机之间的时间同步化。安装NTP包检查是否安装了ntp相关包。如果没有安装ntp相关包,使用rpm或yu
linux 系统则是由 cron (crond) 这个系统服务来控制的。Linux 系统上面原本就有非常多的计划性工作,因此这个系统服务是默认启动的。另 外, 由于使用者自己也可以设置计划任务,所以, Linux 系统也提供了使用者控制计划任务的命令 :crontab 命令。一、crond简介crond 是linux下用来周期性的执行某种任务或等待处理某些事件的一个守护进程,与windows下的计
这一张图就能说明整个linux内核启动过程,记录一下:
2021年马上结束了,在此也写个总结吧。2021年的整个人生旅程挺波折的,有惊喜有惊吓有平凡有感动......年初开始,一如既往的还在金融保险行业打工,作为基础架构底层资源维护的一员,也习惯了每年的忙忙碌碌;年中突然就感觉有一阵热风吹了过来,它的名字叫内卷风,幸运的是保险行业还算稳固,远没有朋友互联网圈的激烈;年底伴随着安安的呱呱坠地,我也成了有女儿的一族,一颦一笑都是那么可爱,老父亲心态瞬间有了
kibana介绍Kibana是一个针对Elasticsearch的开源分析及可视化平台,用来搜索、查看交互存储在Elasticsearch索引中的数据。使用Kibana可以通过各种图表进行高级数据分析及展示。Kibana让海量数据更容易理解。它操作简单,基于浏览器的用户界面可以快速创建仪表板(dashboard)实时显示Elasticsearch查询动态。设置Kibana非常简单。无需编码
什么是logstash简单来说logstash就是一根具备实时数据传输能力的管道,负责将数据信息从管道的输入端传输到管道的输出端;与此同时这根管道还可以让你根据自己的需求在中间加上滤网,Logstash提供里很多功能强大的滤网以满足你的各种应用场景。从网上找到的一个图,这个很明显的介绍了logstash的input,output,fillters的详细功能,也可以看到对于logstash来说,in
------------------以此记录----------------auth-xgmin------------------------集群设计:节点名称服务器类型存储数据es-master14C 16G 1T SATA元数据es-master2es-master3es-hot116C 64G 1T SSDHotes-hot2es-hot3es-cold18C 32G 5T SATACol
Elasticsearch节点概念客户端节点:当主节点和数据节点配置都设置为false的时候,该节点只能处理路由请求,处理搜索,分发索引操作等,从本质上来说该客户节点表现为智能负载平衡器。独立的客户端节点在一个比较大的集群中是非常有用的,他协调主节点和数据节点,客户端节点加入集群可以得到集群的状态,根据集群的状态可以直接路由请求。数据节点:数据节点主要是存储索引数据的节点,主要对文档进行增删改查操
近期要干点活涉及ELK,写篇文章来记录讲解下......一个完整的集中式日志系统,需要包含以下几个主要特点:收集-能够采集多种来源的日志数据传输-能够稳定的把日志数据传输到中央系统存储-如何存储日志数据分析-可以支持 UI 分析告警-能够提供错误报告,监控机制ELK并不是一个单独组件,是由三个开源组件构成的,分别是:Elasticsearch , Logstash, Kibana , 它们都是开源
之前本来准备写篇关于redis的文章,后来种种原因只写了简单的概念介绍(redis-1),这次有时间就接着写完redis的一些东西。基础概念就不再写了,直接翻前面文章。首先大家思考一个问题,为什么我们要使用redis?我总结了下自己的看法,以下几点供参考:提升系统整体性能: 一个用户访问数据库第一次的某些数据有些慢,再次访问时可以存放在redis中,众所周知redis操作内存,所以访问会很快。缓解
在k8s上扩展资源类型的方式有三种:第一种是CRD,CRD是k8s内建的资源类型,该类型资源主要用来创建用户自定义资源类型的资源;即通过CRD资源,可以将用户自定义资源类型转换为k8s上资源类型;第二种是自定义apiserver;这种方式要比第一种方式要复杂一点,需要用户手动开发程序实现对应功能的apiserver,让其用户创建自定义类型资源能够通过自定义apiserver实现;第三种方式就是修改
CPU: 我们知道2核2线程的CPU,可被系统识别为4个逻辑CPU,在K8s中对CPU的分配限制是对逻辑CPU做分片限制的。也就是说分配给容器一个CPU,实际是分配一个逻辑CPU。而且1个逻辑CPU还可被单独划分子单位,即 1个逻辑CPU,还可被划分为1000个millicore(毫核), 简单说就是1个逻辑CPU,继续逻辑分割为1000个豪核心。 豪核:可简单理解为将CPU的时间片做逻辑分割
最近刚好干活用了下,给大家分享个mysql安装shell脚本,自己取用。#!/bin/bashfunction loginfo() {if [[ $? -eq 0 ]];then echo -e "\033[32m[INFO][$(date +"%F %T")] $1 succeed! \033[0m"else echo -e "\033[31m[ERROR][$(date +"%F
一、Oracle Linux 安装VNC1、安装yum update grub2-common -y yum install fwupdate-efi -y yum groups install "Server with GUI" -y yum install tigervnc* -y2、配置及启动vncserver二、CentOS 安装VNC1、安装yum update grub2-common
controller.gopackage mainimport ( "context" "fmt" "strconv" "time" corev1 "k8s.io/api/core/v1" metav1 "k8s.io/apimachinery/pkg/apis/meta/v1" utilruntime "k8s.io/apimachinery/pkg/u
命令补全yum install -y bash-completionsource /usr/share/bash-completion/bash_completionsource <(kubectl completion bash)echo "source <(kubectl completion bash)" >> ~/.bashrc常用命令#查看所有namespace的
一个集群系统管理离不开监控,同样的Kubernetes也需要根据数据指标来采集相关数据,从而完成对集群系统的监控状况进行监测。这些指标总体上分为两个组成:监控集群本身节点资源状态:主要包括网络带宽、磁盘空间、CPU和内存使用率节点的数量:即时性了解集群的可用节点数量可以为用户计算服务器使用的费用支出提供参考。运行的Pod对象:正在运行的Pod对象数量可以评估可用节点数量是否足够,以及节点故障时是否
今天讲讲kubernets网络模型,首先先来看pod通信原理.在容器启动前,会为容器创建一个虚拟Ethernet接口对,这个接口对类似于管道的两端,其中一端在主机命名空间中,另外一端在容器命名空间中,并命名为eth0。在主机命名空间的接口会绑定到网桥。网桥的地址段会IP赋值给容器的eth0接口。pod通信有的基于overlay网络实现,有的基于vxlan实现,vxlan 全称是 Virtual e
Pod的生命是有限的,如果Pod重启或者worker节点宕机都会触发pod重建导致IP地址变化,如果写死会导致服务不可用,所以我们需要一个概念:服务发现。通过,Consul,ZooKeeper还有我们熟悉的etcd等工具,只需要把我们的服务注册到这些服务发现中心去就可以,然后让这些工具动态的去更新Nginx的配置就可以了,我们完全不用去手工的操作了。那么服务发现的方式有哪些呢?ClusterIP:
Kubernets自1.2版本开始支持批处理类型应用,也就是说我们可以通过kubernets job资源对象定义并启动一个批处理任务。批处理任务通常并行或者串行启动多个计算进程去处理一批work item。因为实现方式的不同,所以批处理任务分为以下几种:1.Non-parallel jobs字面意思非并发job,Job启动后,只运行一个pod,pod运行结束后整个Job也就立刻结束。apiVers
deployment本身三兄弟,还有两个兄弟分别是replicationcontroller,replica set。由于k8s本身的发展,首先官方建议使用RS(Replicaset)替代RC(ReplicationController)进行部署,RS跟RC没有本质的不同,只是名字不一样,并且RS支持集合式的 selector。然后发展为Deployment:为Pod 和Replicaset 提供
容器部署过程中一般有以下三种数据: 启动时需要的初始数据,可以是配置文件启动过程中产生的临时数据,该临时数据需要多个容器间共享启动过程中产生的持久化数据我们希望容器重启可以保存以上类型的数据,所以存储卷就必须使用,那么应对以上不同类型需求,我们使用什么类型存储卷呢?volumes:启动依赖数据:configmap secret 临时存储数据:emptyDir hostPath持久化数据:nfs c
准备完整的写一套关于kubernets的详细学习介绍。就先从pod开始吧。pod是可以在 Kubernetes 中创建和管理的、最小的可部署的计算单元。pod简单来说就是docker中共享空间的一组容器,它本身基于linux namespace和cgroup隔离。一般我们很少单独去创建一个pod,都是通过负载资源去创建的,例如DeploymentStatefulSetDaemo
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号