时间戳tcpdump的所有输出打印行中都会默认包含时间戳信息.时间戳信息的显示格式如下hh:mm:ss.frac (nt: 小时:分钟:秒.(nt: frac未知, 需补充))此时间戳的精度与内核时间精度一致, 反映的是内核第一次看到对应数据包的时间(nt: saw, 即可对该数据包进行操作). 而数据包从物理线路传递到内核的时间, 以及内核花费在此包上的中断处理时间都没有算进来.命令使用tcpd
SMB/CIFS 解码tcpdump 已可以对SMB/CIFS/NBT相关应用的数据包内容进行解码(nt: 分别为'Server Message Block Common', 'Internet File System''在TCP/IP上实现的网络协议NETBIOS的简称'. 这几个服务通常使用UDP的137/138以及TCP的139端口). 原来的对IPX和NetBEUI SMB数据包的解码能力
TCP 数据包(注意:以下将会假定你对 RFC-793所描述的TCP熟悉. 如果不熟, 以下描述以及tcpdump程序可能对你帮助不大.(nt:警告可忽略,只需继续看, 不熟悉的地方可回头再看.).通常tcpdump对tcp数据包的显示格式如下:src > dst: flags data-seqno ack window urgent optionssrc 和 dst 是源和目的IP地址以及
简介用简单的话来定义tcpdump,就是:dump the traffic on a network,根据使用者的定义对网络上的数据包进行截获的包分析工具。 tcpdump可以将网络中传送的数据包的“头”完全截获下来提供分析。它支持针对网络层、协议、主机、网络或端口的过滤,并提供and、or、not等逻辑语句来帮助你去掉无用的信息。实用命令实例默认启动tcpdump普通情况下,直接启
在Linux中curl是一个利用URL规则在命令行下工作的文件传输工具,可以说是一款很强大的http命令行工具。它支持文件的上传和下载,是综合传输工具,但按传统,习惯称url为下载工具。语法:# curl [option] [url]常见参数:-A/--user-agent <string> 设置用户代理发送给服务器-b/--cookie <name=s
0、下载Orcle11Goracle10G/11G官方下载地址合集(直接迅雷下载)1、上传文件到服务器或虚拟机的/install目录下[root@myYUn install]# rz –y如果rz –y命令不能使用,可用如下方法解决:yum install lrzsz -y2、解压文件到当前目录:[root@myYUn install]# unzip linux.x64_11gR2
在Linux系统中,为了避免主机时间因为在长时间运行下所导致的时间偏差,进行时间同步(synchronize)的工作是非常必要的。Linux系统下,一般使用ntp服务来同步不同机器的时间。NTP 是网络时间协议(Network Time Protocol)的简称,干嘛用的呢?就是通过网络协议使计算机之间的时间同步化。安装NTP包检查是否安装了ntp相关包。如果没有安装ntp相关包,使用rpm或yu
linux 系统则是由 cron (crond) 这个系统服务来控制的。Linux 系统上面原本就有非常多的计划性工作,因此这个系统服务是默认启动的。另 外, 由于使用者自己也可以设置计划任务,所以, Linux 系统也提供了使用者控制计划任务的命令 :crontab 命令。一、crond简介crond 是linux下用来周期性的执行某种任务或等待处理某些事件的一个守护进程,与windows下的计
这一张图就能说明整个linux内核启动过程,记录一下:
2021年马上结束了,在此也写个总结吧。2021年的整个人生旅程挺波折的,有惊喜有惊吓有平凡有感动......年初开始,一如既往的还在金融保险行业打工,作为基础架构底层资源维护的一员,也习惯了每年的忙忙碌碌;年中突然就感觉有一阵热风吹了过来,它的名字叫内卷风,幸运的是保险行业还算稳固,远没有朋友互联网圈的激烈;年底伴随着安安的呱呱坠地,我也成了有女儿的一族,一颦一笑都是那么可爱,老父亲心态瞬间有了
kibana介绍Kibana是一个针对Elasticsearch的开源分析及可视化平台,用来搜索、查看交互存储在Elasticsearch索引中的数据。使用Kibana可以通过各种图表进行高级数据分析及展示。Kibana让海量数据更容易理解。它操作简单,基于浏览器的用户界面可以快速创建仪表板(dashboard)实时显示Elasticsearch查询动态。设置Kibana非常简单。无需编码
什么是logstash简单来说logstash就是一根具备实时数据传输能力的管道,负责将数据信息从管道的输入端传输到管道的输出端;与此同时这根管道还可以让你根据自己的需求在中间加上滤网,Logstash提供里很多功能强大的滤网以满足你的各种应用场景。从网上找到的一个图,这个很明显的介绍了logstash的input,output,fillters的详细功能,也可以看到对于logstash来说,in
------------------以此记录----------------auth-xgmin------------------------集群设计:节点名称服务器类型存储数据es-master14C 16G 1T SATA元数据es-master2es-master3es-hot116C 64G 1T SSDHotes-hot2es-hot3es-cold18C 32G 5T SATACol
Elasticsearch节点概念客户端节点:当主节点和数据节点配置都设置为false的时候,该节点只能处理路由请求,处理搜索,分发索引操作等,从本质上来说该客户节点表现为智能负载平衡器。独立的客户端节点在一个比较大的集群中是非常有用的,他协调主节点和数据节点,客户端节点加入集群可以得到集群的状态,根据集群的状态可以直接路由请求。数据节点:数据节点主要是存储索引数据的节点,主要对文档进行增删改查操
近期要干点活涉及ELK,写篇文章来记录讲解下......一个完整的集中式日志系统,需要包含以下几个主要特点:收集-能够采集多种来源的日志数据传输-能够稳定的把日志数据传输到中央系统存储-如何存储日志数据分析-可以支持 UI 分析告警-能够提供错误报告,监控机制ELK并不是一个单独组件,是由三个开源组件构成的,分别是:Elasticsearch , Logstash, Kibana , 它们都是开源
之前本来准备写篇关于redis的文章,后来种种原因只写了简单的概念介绍(redis-1),这次有时间就接着写完redis的一些东西。基础概念就不再写了,直接翻前面文章。首先大家思考一个问题,为什么我们要使用redis?我总结了下自己的看法,以下几点供参考:提升系统整体性能: 一个用户访问数据库第一次的某些数据有些慢,再次访问时可以存放在redis中,众所周知redis操作内存,所以访问会很快。缓解
最近刚好干活用了下,给大家分享个mysql安装shell脚本,自己取用。#!/bin/bashfunction loginfo() {if [[ $? -eq 0 ]];then echo -e "\033[32m[INFO][$(date +"%F %T")] $1 succeed! \033[0m"else echo -e "\033[31m[ERROR][$(date +"%F
一、Oracle Linux 安装VNC1、安装yum update grub2-common -y yum install fwupdate-efi -y yum groups install "Server with GUI" -y yum install tigervnc* -y2、配置及启动vncserver二、CentOS 安装VNC1、安装yum update grub2-common
keepalive安装脚本
lv扩容
ansible 随笔
1.文件描述符的概念在shell程式中,最常使用的FD(filedescriptor)大概有三个,分别是:0是一个文件描述符,表示标准输入(stdin)1是一个文件描述符,表示标准输出(stdout)2是一个文件描述符,表示标准错误(stderr)在标准情况下,这些FD分别跟如下设备关联:stdin(0):keyboard键盘输入,并返回在前端stdout(1):monitor正确返回值输出到前端
由于内部虚拟机采用pv,vg,lv模式,导致经常性的做lv扩容操作。于是编写以下脚本方便使用,仅供参考#!/bin/bash#v1.0#by-xgmin-20200507echo"pleaseinputyourlvname"readnamelvlv_name=df-Ph|grep"/$namelv"|awk'{print$1}'lv_type
top[root@localhost java_demos]# top top - 14:36:14 up 2 days, 4:43, 1 user, load average: 0.00, 0.01,
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号