按时间段获取日志sed -n '/22\/Dec\/2015:00/,/22\/Dec\/2015:50/p' localhost_access_log.2015-11-10.txt > /tmp/acc.www.log  sed -n '/22\/Dec\/2015:00/,/22\/Dec\/2015:50/
原创 2015-12-22 10:29:41
2284阅读
1点赞
IP相关统计 统计IP访问量(独立ip访问数量)awk '{print $1}' access.log | sort -n | uniq | wc -l 查看某一时间段的IP访问量(4-5点)grep "07/Apr/2017:0[4-5]" access.log | awk '{print $1}
原创 2021-12-23 17:04:55
264阅读
1)按每小时切割Nginx访问日志,并且将日志自动上传至FTP服务器;#!/bin/bash#auto mv nginx log shell#by author xiaomingS_LOG=/usr/local/nginx/logs/access.logD_LOG=/data/backup/`date +%Y%m%d%H%M`echo -e "\033[32mPlease wait start c
原创 2017-11-15 09:02:16
388阅读
1点赞
日志统计1).根据访问IP统计UVawk '{print $1}' access.log|sort | uniq -c |wc -l2).统计访问URL统计PVawk '{print $7}' access.log|wc -l3).查询访问最频繁的URLawk '{print $7}' access.log|sort | uniq -c |sort -n -k 1 -r|mo...
原创 2021-07-28 10:07:29
186阅读
1)按每小时切割Nginx访问日志,并且将日志自动上传至FTP服务器;#!/bin/bash#auto mv nginx log shell#by author xiaomingS_LOG=/usr/local/nginx/logs/access.logD_LOG=/data/backup/`date +%Y%m%d%H%M`echo -e "\033[32mPlease wait start c
原创 2017-11-15 09:02:24
1028阅读
1点赞
最近给公司配置组的同事做了个日志分析统计的工具。由于甲方对我们有要求,要每天统计每个人在cvs库上的操作,统计出某天某人提交了几个文件,删除了几个文件之类的。她们一开始找的是一个开源的cvs日志查看工具,是python写的一个cgi页面,执行效果大概如下图:但是这个界面用起来不是很称心。使用不方便,且无统计功能等。于是她们找了我,希望我能按她们的要求进行修改。于是乎
转载 2023-05-22 12:05:28
82阅读
1、写日志log = nnlog.Logger('python.log',level='debug',backCount=5,when='D')level:输出日志级别,debug:把所有的日志都打印出来,info:打印info以上的日志,warning:打印warning以上的日志,error:只会打印error级别的日志backCount:备份几个日志when:以什么时间周期来生成,D:按天,
转载 2023-06-21 23:50:36
87阅读
点击“开始→运行”,输入eventvwr,点击“确定”,就可以打开事件查看器就是电脑日志查看事件的详细信息:选中事件查看器左边的树形结构图中的日志类型(应用程序、安全性或系统),在右侧的详细资料窗格中将会显示出系统中该类的全部日志,双击其中一个日志,便可查看其详细信息。在日志属性窗口中我们可以看到事件发生的日期、事件的发生源、种类和ID,以及事件的详细描述。这对我们寻找解决错误是最重要的。搜索事件
Nginx日志配置详解前言Nginx日志对于统计、系统服务排错很有用。Nginx日志主要分为两种:access_log(访问日志)和error_log(错误日志)。通过访问日志我们可以得到用户的IP地址、浏览器的信息,请求的处理时间等信息。错误日志记录了访问出错的信息,可以帮助我们定位错误的原因。本文将详细描述一下如何配置Nginx日志。设置access_log访问日志主要记录客户端的请求。客户端
转载 2023-08-19 22:17:26
136阅读
“ 最近开始用kpt记录自己的日常工作,本文将是该系列的第一篇,主要讲解linux下如何快速逻辑处理数据”Keep正在做日志筛选数据的事情,需要从服务日志中捞出含关键字的日志,并且该条日志中含响应时间数据,需捞出其中大于500ms的数据Problem 普通的grep只能捞出所有包含关键字的日志,没法做一些简单的逻辑判断,如果用编程语言来处理又会显得很笨重Try linux下有一个利器命令awk可以
之前折腾了一个礼拜,终于把SpamAssassin+Postfix+MySQL搞定,跑在一台双5130,8G内存的机器上,那速度相当惊人(这个还干别的用,光一个邮件网关我可没这么多预算)。 闲下时间来看了看MySQL中的数据,发现这网关还真厉害。每天接收到的邮件有6万多封,其中5万多封被识别为垃圾邮件(我的分数阀值是8.0,如果设得稍低些会给更多的邮件判刑)。 运行到现在已经有半个多月了,在得
原创 2008-03-24 13:38:06
1483阅读
1评论
Awstats 是一个免费非常简洁而且强大有个性的统计工具。它可以统计您站点的如下信息: ① 访问量,访问次数,页面浏览量,点击数,数据流量等 ② 精确到每月、每日、每小时的数据 ③ 访问者国家 ④ 访问者 IP ⑤ Robots/Spiders 的统计 ⑥ 纺客持续时间 ⑦ 对不同 Files type 的统计信息 ⑧ Pages-URL 的统计 ⑨ 访客操作系统浏览器等信
原创 2011-01-06 16:21:26
1654阅读
shell统计日志信息一般应用中都会使用log4j记录日志信息,并每天生成一个日志文件,每个文件以当天的日期结尾。如何统计并分析这些日志信息?最简单的,使用shell脚本进行统计分析:下面的脚本就将最近一周的日志文件的行数进行了统计并罗列出来,还和上周的进行了比较。可以将分析出来的信息输出到一个特定文件中,将该文件发送邮件或给web服务进行显示。date echo "==========
原创 2015-11-18 17:24:55
610阅读
1.根据访问IP统计UVawk '{print $1}'  access.log|sort | uniq -c |wc -l2.统计访问URL统计PVawk '{print $7}' access.log|wc -l3.查询访问最频繁的URLawk '{print $7}' access.log|sort | uniq -c |sort -n -k 1 -r|more4.查询访问最频繁的
log
转载 精选 2016-04-08 11:01:13
481阅读
1点赞
命令统计apache或nginx日志中访问最多的100个ip及访问次数,这个在以前做日志统计的时候经常用到awk '{print $1}' 日志地址 | sort | uniq -c | sort -n -k 1 -r | head -n 100
原创 2015-07-13 15:53:07
611阅读
在Linux系统中,Nginx是一个非常流行的Web服务器软件,许多网站和应用程序都在使用它来提供服务。随着网站和应用程序的不断发展,Nginx日志中的数据量也在不断增加,这就需要我们对这些日志进行统计和分析,以便更好地了解网站访问情况、优化网站性能以及发现潜在的安全问题。 对于Linux系统管理员来说,统计Nginx日志是一项非常重要的工作。通过统计Nginx日志,我们可以了解网站的访问量、访
原创 4月前
10阅读
# 如何使用Python统计日志 ## 流程图 ```mermaid stateDiagram [*] --> 开始 开始 --> 读取日志文件 读取日志文件 --> 解析日志 解析日志 --> 统计信息 统计信息 --> 输出结果 输出结果 --> [*] ``` ## 步骤及代码示例 | 步骤 | 内容 | 代码示例 | | ---- |
原创 2月前
18阅读
awk -F, 'BEGIN{                  t0=0;              &
原创 2010-02-23 15:19:37
1628阅读
需求:找到访问小图最多的前三个ip, 日志文件20121030.log 0    192.168.1.102    small_0.gif 1    192.168.1.113    big_1.gif 2    192.168.1.110&
原创 2012-11-14 00:52:47
904阅读
  • 1
  • 2
  • 3
  • 4
  • 5