GoAccess 是一款开源的网站日志实时分析工具。GoAccess 的工作方式很容易理解,就是读取和解析 Apache/Nginx/Lighttpd 的访问日志文件 access log,然后以更友好的方式把统计信息显示出来。统计的内容包括:访问概况、动态页面请求、静态页面请求(如图片、样式表、脚本等)、访客排名,访客使用的操作系统,访客使用的浏览器,来路域名,404 错误,搜索爬虫,搜索关键词
原创 2021-07-29 09:27:51
924阅读
想要获得更多的文章,可以关注我的微信ilanniweb这几天自己看了下博客的nginx日志,发现日志文件发现越来越大。因为nginx自己不会对日志文件进行切割,所以打算通过其他方式进行切割,而且为了后续能对nginx日志文件里面记录的数据进行分析,所以打算按照天对其进行切割。PS:本篇文章所以的操作是在centos6.5 OS 64bit上进行。切割nginx日志,我们可以通过两种不同的方式进行,
1.写一个切割的脚本进入vhost目录下cd /usr/local/nginx/conf/vhosts2.打开一个文件vim /usr/local/sbin/nginx_logrotate.sh  ---日志文件都放在这个目录下面添加以下内容#!/bin/bashd='date -d "-1 day" +%F'[ -d /tmp/nginx_log ] || mkdir /tmp/ngi
原创 2016-12-06 20:09:28
669阅读
nginx日志本身不能通过配置来进行分割,如果要进行分割,需要通过写一个简单的脚本来实现这个功能。以前我一直都是用cp命令来做的,例如: 原理很简单,就是通过cp命令拷贝一份当前的日志,拷贝完后清空当前日志。当然,如果nginx的并发量很大,可能会造成日志丢失情况。 今天无意中看到另外一种分割日志
原创 2022-03-03 16:09:09
136阅读
 转自http://yifangyou.blog.51cto.com/900206/1032567 由于nginx日志本身只是支持按照server_name或者大小进行划分,对于习惯了apache的按照一个网站每天一个日志的我来说是不可以接受的,于是从网上找了几个nginx按天分割的方法发现都是互相抄袭的,特别是里面有一个命令是kill -9 `cat nginx.pid`,需要杀掉
转载 精选 2012-10-22 11:10:44
425阅读
nginx默认没有提供对日志文件的分割功能,所以随着时间的增长,access.log和error.log文件会越来越大,尤其是access.log,其日志记录量比较大,更容易增长文件大小,影响日志写入性能分割nginx日志的方法有很多,这里推荐利用Logrotate来完成Logrotate用法1. 安装logrotate是一个linux系统日志的管理工具。可以对单个日志文件或者某个目录下的文件按时
原创 精选 2023-02-21 17:37:54
326阅读
#!/usr/bin/bash#日志文件存放目录logs_path=/var/log/nginx#nginx进程pidnginx_pid=`cat /var/run/nginx.pid`#日志名称logs_name=$(date -d "yesterday" +%Y%m%d)#改名mv $logs_path/access.log $logs_path/$logs_name...
原创 2022-11-16 20:59:27
57阅读
创建日志分割脚本 vi /root/cut_logs.sh   #!/bin/bash #This script run at 00:00 # The Nginx logs path logs_path="/data/logs/" mkdir -p ${logs_path}$(date -d "yesterday" +"%Y
原创 2012-10-11 16:36:59
547阅读
参考了红薯的这篇文章:http://www.oschina.net/bbs/thread/13为避免原文删除,拷贝过来:由于我们分域名网站众多,以前通过cronolog将apache的log自动按照yyyy-mm-dd截断成每天的各分网站日志,然后通过bash脚本 使用awstat生成所有分网站的log分析页面,以便所有网站日志的统一管理和浏览。但是nginx的配置文件中不支持cronolog的管
转载 精选 2013-06-24 12:51:43
551阅读
1点赞
新建一个脚本 #!/bin/bash #2012-9-29  gary savepath='/data/log/nginx' nglogs='/usr/local/nginx/logs' mkdir -p $savepath/$(date +%Y-%m) mv $nglogs/access.log $savepath/$(date +%Y-%m)/access.$(d
原创 2012-09-29 18:26:41
565阅读
#! /bin/bash find /opt/nginx3/logs -name "*.access_winenice.log" -type f -mtime +30 -exec rm {} \; > /dev/null 2>&1 echo -e "\033[1;31mbeginning cut nginx log\033[0m"
原创 2012-10-02 23:44:06
326阅读
概述随着Nginx运行时间增加,日志也会增加。为了方便掌握Nginx运行状态,需要时刻关注Nginx日志文件太大的日志文件对监控是-一个大灾难就需要定期进行日志文件的切割。Nginx自身不具备日志分割处理的功能,但可以通过Nginx信号控制功能的脚本实现日志自动切割,并通过Linux的计划任务周期性地进行日志切割。实验步骤一、编译安装Nginx服务第一步:远程获取Windows上的源码包,并挂载
原创 2019-11-13 15:16:44
1109阅读
1.Nginx日志分割脚本1:#!/bin/shLOGS_PATH=/usr/local/nginx/logsYESTERDAY=$(date -d "yesterday" +%Y-%m-%d)mv ${LOGS_PATH}/access.log ${LOGS_PATH}/access_${YESTERDAY}.logmv ${LOGS_PATH}/error.log ${LOGS_PATH}/e
原创 2017-07-18 11:10:37
571阅读
     因为nginx自身不带日志分割的功能 所以我们用shell脚本来完成这一任务 1.首先我来说明下nginx的主进程号:   如果nginx.conf 配置文件中使用了"pid /usr/local/nginx/nginx.pid;"指定了pid文件的存放路径,我们可以通过more这个pid文件来获得nginx的主进程号,或者使用 p
原创 2010-04-12 16:30:09
4034阅读
1点赞
4评论
nginx日志分割配置 vim /usr/local/nginx/nginx.sh #! /bin/bash savepath_log='/home/nginx/logs' nglogs='/usr/local/nginx/logs' mkdir -p $savepath_log/$(date +%Y)/$(date +%m) mv $nglogs/access.log $savepa
原创 2012-03-31 14:31:11
354阅读
nginx分割日志管理1.编辑脚本文件cut_nginx_log.sh,添加以下内容: logs_path="/var/log/nginx/"mkdir -p ${logs_path}$(date -d "yesterday" + "%Y")/$(date -d "yesterday" + "%m")/mv ${logs_path}access.log ${logs_path}$(date -d
原创 2013-01-25 17:25:25
688阅读
#cut_nginx_logs.sh #!/bin/bash #function:cut nginx log files #set the path to nginx log files log_files_path="/usr/local/nginx/logs/" log_files_dir=${log_
原创 2015-12-17 09:03:01
902阅读
 server {        listen       80;        server_name  bmw2.thefront.com.cn;        charset utf-8;    &nbs
原创 2016-09-12 17:49:58
1096阅读
nginx 日志分割,可以分割一年内没有分割日志,以每天一个日志文件打包转载请注明出处:http://lm3810.blog.51cto.com/846925/1860543#!/bin/bash #hls_nginx_log_cut.sh #by Louis 2016/10/10 logs_path='/data/store/logs/www/' #日志文件所在路径 fil
原创 2016-10-11 11:05:18
962阅读
日志分割一、企业服务器中的日志文件过大会带来下面的问题:1、查询过大的日志文件对于开发和运维十分不方便,特别是加班人很累的情况下更加雪上加霜;2、很久以前的日志文件几乎没有价值,但是手工清理又太过繁琐。这时候就需要一种解决方案可以自动来做日志分割分割后的日志不仅“干净”,也便于实现日志定时清理。实验二、编译安装Nginx服务1、远程获取Windows上的源码包,并挂载到Linux上[root@l
原创 2019-11-13 22:53:07
1318阅读
  • 1
  • 2
  • 3
  • 4
  • 5