脚本内容如下: #!/bin/bash ##crontab every 3 hour execute a time to backup log file in /backup/log_backup/## path=/usr/local/nginx/logs/
原创 2012-12-25 14:58:33
1186阅读
1点赞
2评论
第一次用纯变量写,不太习惯,主要是因为昨晚写了10行的脚本出现了5次错误,索性决定以后全部用变量代替,以后这些还可以用在别的地方上   #!/bin/bash if         [ ! -d /data/backup/fkzj  ]
原创 2012-07-20 15:20:38
934阅读
1评论
#!/bin/bash#需要拆分的文件fn=$1echo"传入文件=====>>>"$fn"<<<====="#文件名称fname=`basename$fn`echo"获取文件名称=====>>>"$fname"<<<====="#文件绝对路径fpath=$(dirname`readlink-f$fn`)echo"文件绝对路径
原创 2020-08-21 17:56:23
907阅读
1点赞
#!/bin/bash#日志格式:$remote_addr-$remote_user[$time_local]"$request"$status$body_bytes_sent"$http_referer""$http_user_agent""$http_x_forwarded_for"LOG_FILE=$1echo"统计访问最多的10个IP"awk'{a[$1]++}END{print"UV:"
原创 2020-09-10 17:13:08
375阅读
   有时使用nginx做高可用的时候,日志可能会根据不同的应用生产许多的访问日志,所以写了以下的批量日志自动备份脚本#!/usr/bin/python2.4import osimport shutilimport globimport datetimeimport reimport gzipTm=datetime.datetime.now().strftime("%Y%m%
原创 2014-04-18 14:03:19
924阅读
#!/bin/bash#日志格式:$remote_addr-$remote_user[$time_local]"$request"$status$body_bytes_sent"$http_referer""$http_user_agent""$http_x_forwarded_for"LOG_FILE=$1echo"统计访问最多的10个IP"awk'{a[$1]++}END{print"UV:"
原创 2020-09-10 17:13:14
408阅读
image.png
z
原创 2022-03-17 11:10:09
80阅读
Nginx是我们生产环境的主要入口,所有的请求都会在这里留下痕迹,所以会导致一个问题,它的日志文件会一天比一天的大。直到有一天你无法接受这个庞大的文件的时候,就你就会想到了切割文件的这个办法。能想到切割日志的童鞋那肯定是对Nginx用的熟悉的不能再熟悉的了,所以这里我就不过多的阐述Nginx的应用了,只说一个点  -USR1选
转载 2022-12-06 01:42:49
193阅读
#!/bin/bash #set the path to nginx log files log_files_path="/data/nginxlogs" log_files_dir=${log_files_path}$(date -d "yesterday" +"%Y")/$(date -d "yesterday&quo
原创 2012-05-31 20:03:45
353阅读
nginx日志文件没有rotate功能。如果你不处理,日志文件将变得越来越大,还好我们可以写一个nginx日志切割脚本来自动切割日志文件。第一步就是重命名日志文件,不用担心重命名后nginx找不到日志文件而丢失日志。在你未重新打开原名字的日志文件前,nginx还是会向你重命名的文件写日志,linux是靠文件描述符而不是文件名定位文件。第二步向nginx主进程发送USR1信号。nginx主进程接到
原创 2013-12-20 10:28:04
418阅读
1点赞
发现nginx日志没有正常的切割cat logrotate.d/nginx/home/log/nginx1.0.11/*.log{ daily rotate 30 copytruncate missingok notifempty compress }参照http://wiki.nginx.org/LogRotation$ mv access.lo
原创 2013-12-29 23:33:03
713阅读
nginx日志文件没有rotate功能。如果你不处理,日志文件将变得越来越大,还好我们可以写一个nginx日志切割脚本来自动切割日志文件。第一步就是重命名日志文件,不用担心重命名后nginx找不到日志文件而丢失日志。在你未重新打开原名字的日志文件前,nginx还是会向你重命名的文件写日志,linux是靠文件描述符而不是文件名定位文件。第二步向nginx主进程发送USR1信号。nginx主进程接到
转载 精选 2014-03-21 15:01:48
341阅读
#多虚拟主机日志切割#!/bin/bashfor logs_path in `cd /opt/logs && ls ./`do    cd /opt/logs/${logs_path}   mkdir -p ${logs_path}$(date -d "yesterday" +"%Y")/$(date -d "yesterday"
原创 2016-04-05 13:00:09
574阅读
一、使用logrotate切割yum安装的nginx会自动使用logrotate这个日志管理软件进行切割,所以本章节我们主要介绍有关logrotate相关的知识点。[root@lanmp bin]# yum install -y nginx1.1 logrotate介绍logrotate是什么呢?它是一个linux系统日志的管理工具。它可以切割、压缩等其他软件的日志文件软件。我们可以通过如下命令安
原创 2016-05-16 14:10:24
834阅读
编写脚本:vim  /usr/local/sbin/logrotate.sh  //加入#!/bin/bashd=`date -d "-1 day" +%F`[ -d /tmp/nginx_log ] || mkdir /tmp/nginx_logmv  /tmp/access.log    /tmp/nginx_log/$d.
原创 2016-06-08 16:42:12
600阅读
1. 编辑脚本    说明:date -d "-1 day" 表示昨天; %F表示年月日以Y%-m%-d形式;[-d ]表示判断是否有这个目录,如果没有就或关系,创建该目录;将每日的access.log文件挪到创建的目录/tmp/nginx_log/中,并命名为d变量的格式;reload用于重新生成acces.log,并重定向清空;考虑到切割日志比较大,gzip -f判断日志
原创 2017-02-23 17:34:27
312阅读
日志切割当网站访问量大后,日志数据就会很多,如果全部写到一个日志文件中去,文件会变得越来越大。文件大速度就会慢下来,比如一个文件几百兆。写入日志的时候,会影响操作速度。另外,如果我想看看访问日志,一个几百兆的文件,下载下来打开也很慢。为了方便对日志进行分析计算,需要对日志进行定时切割。定时切割的方式有按照月切割、按天切割,按小时切割等。最常用的是按天切割。#!/bin/bash logs_path
原创 2017-11-10 18:59:46
1348阅读
1点赞
日志切割
转载 2018-08-13 16:55:12
3877阅读
  log_mgr.sh #nginx日志切割脚本 #author: http://www.nginx.cn #!/bin/bash #设置日志文件存放目录 logs_path="/data/openresty/nginx/logs/" #设置pid文件 pid_path="/data/openresty/nginx/logs/nginx.pid" #重命名日志文件 mv ${logs_pa
转载 2015-07-27 10:46:00
59阅读
2评论
Nginx 日志切割 手动方式切割 1、创建一个shell可执行文件cut_my_log.sh #!/bin/bash LOG_PATH="/var/log/nginx/" #按天切割改为$(date -d "yesterday" +%Y-%m-%d) RECORD_TIME=$(date -d " ...
转载 2021-08-26 18:37:00
164阅读
2评论
  • 1
  • 2
  • 3
  • 4
  • 5