转自http://yifangyou.blog.51cto.com/900206/1032567 由于nginx日志本身只是支持按照server_name或者大小进行划分,对于习惯了apache的按照一个网站每天一个日志的我来说是不可以接受的,于是从网上找了几个nginx按天分割的方法发现都是互相抄袭的,特别是里面有一个命令是kill -9 `cat nginx.pid`,需要杀掉
转载 精选 2012-10-22 11:10:44
425阅读
nginx默认没有提供对日志文件的分割功能,所以随着时间的增长,access.log和error.log文件会越来越大,尤其是access.log,其日志记录量比较大,更容易增长文件大小,影响日志写入性能分割nginx日志的方法有很多,这里推荐利用Logrotate来完成Logrotate用法1. 安装logrotate是一个linux系统日志的管理工具。可以对单个日志文件或者某个目录下的文件按时
原创 精选 2023-02-21 17:37:54
326阅读
#!/usr/bin/bash#日志文件存放目录logs_path=/var/log/nginx#nginx进程pidnginx_pid=`cat /var/run/nginx.pid`#日志名称logs_name=$(date -d "yesterday" +%Y%m%d)#改名mv $logs_path/access.log $logs_path/$logs_name...
原创 2022-11-16 20:59:27
57阅读
创建日志分割脚本 vi /root/cut_logs.sh   #!/bin/bash #This script run at 00:00 # The Nginx logs path logs_path="/data/logs/" mkdir -p ${logs_path}$(date -d "yesterday" +"%Y
原创 2012-10-11 16:36:59
547阅读
参考了红薯的这篇文章:http://www.oschina.net/bbs/thread/13为避免原文删除,拷贝过来:由于我们分域名网站众多,以前通过cronolog将apache的log自动按照yyyy-mm-dd截断成每天的各分网站日志,然后通过bash脚本 使用awstat生成所有分网站的log分析页面,以便所有网站日志的统一管理和浏览。但是nginx的配置文件中不支持cronolog的管
转载 精选 2013-06-24 12:51:43
551阅读
1点赞
1.写一个切割的脚本进入vhost目录下cd /usr/local/nginx/conf/vhosts2.打开一个文件vim /usr/local/sbin/nginx_logrotate.sh  ---日志文件都放在这个目录下面添加以下内容#!/bin/bashd='date -d "-1 day" +%F'[ -d /tmp/nginx_log ] || mkdir /tmp/ngi
原创 2016-12-06 20:09:28
669阅读
nginx日志本身不能通过配置来进行分割,如果要进行分割,需要通过写一个简单的脚本来实现这个功能。以前我一直都是用cp命令来做的,例如: 原理很简单,就是通过cp命令拷贝一份当前的日志,拷贝完后清空当前日志。当然,如果nginx的并发量很大,可能会造成日志丢失情况。 今天无意中看到另外一种分割日志
原创 2022-03-03 16:09:09
136阅读
     因为nginx自身不带日志分割的功能 所以我们用shell脚本来完成这一任务 1.首先我来说明下nginx的主进程号:   如果nginx.conf 配置文件中使用了"pid /usr/local/nginx/nginx.pid;"指定了pid文件的存放路径,我们可以通过more这个pid文件来获得nginx的主进程号,或者使用 p
原创 2010-04-12 16:30:09
4034阅读
1点赞
4评论
nginx日志分割配置 vim /usr/local/nginx/nginx.sh #! /bin/bash savepath_log='/home/nginx/logs' nglogs='/usr/local/nginx/logs' mkdir -p $savepath_log/$(date +%Y)/$(date +%m) mv $nglogs/access.log $savepa
原创 2012-03-31 14:31:11
354阅读
nginx分割日志管理1.编辑脚本文件cut_nginx_log.sh,添加以下内容: logs_path="/var/log/nginx/"mkdir -p ${logs_path}$(date -d "yesterday" + "%Y")/$(date -d "yesterday" + "%m")/mv ${logs_path}access.log ${logs_path}$(date -d
原创 2013-01-25 17:25:25
688阅读
#cut_nginx_logs.sh #!/bin/bash #function:cut nginx log files #set the path to nginx log files log_files_path="/usr/local/nginx/logs/" log_files_dir=${log_
原创 2015-12-17 09:03:01
902阅读
 server {        listen       80;        server_name  bmw2.thefront.com.cn;        charset utf-8;    &nbs
原创 2016-09-12 17:49:58
1096阅读
nginx 日志分割,可以分割一年内没有分割日志,以每天一个日志文件打包转载请注明出处:http://lm3810.blog.51cto.com/846925/1860543#!/bin/bash #hls_nginx_log_cut.sh #by Louis 2016/10/10 logs_path='/data/store/logs/www/' #日志文件所在路径 fil
原创 2016-10-11 11:05:18
962阅读
日志分割一、企业服务器中的日志文件过大会带来下面的问题:1、查询过大的日志文件对于开发和运维十分不方便,特别是加班人很累的情况下更加雪上加霜;2、很久以前的日志文件几乎没有价值,但是手工清理又太过繁琐。这时候就需要一种解决方案可以自动来做日志分割分割后的日志不仅“干净”,也便于实现日志定时清理。实验二、编译安装Nginx服务1、远程获取Windows上的源码包,并挂载到Linux上[root@l
原创 2019-11-13 22:53:07
1318阅读
#!/bin/bash #设置日志文件存放目录 logs_path="/usr/local/nginx/logs" #设置pid文件 pid_path="/usr/local/nginx/sbin/nginx.pid"   #重命名日志文件 mv ${logs_path}/access.log ${logs_path}/access_$(date -d "yesterday" +"%Y%m%d")
原创 2021-07-29 20:49:55
526阅读
在Linux系统中,Nginx是一种高性能的Web服务器和反向代理服务器。随着访问量的增加,Nginx日志文件也会不断增长,占用大量磁盘空间。为了更好地管理这些日志文件,我们需要对其进行定期分割日志文件分割的主要目的是为了便于管理和分析日志信息,在Nginx中,通常使用日志轮询的方式进行分割。通过日志分割,可以将原始的大文件按照时间或大小等条件切割成小文件,使日志文件更易于管理和备份。
Nginx日志不处理的话,会一直追加,文件会变得很大 Linux nginx_log.sh #!/bin/bash date=$(date +%F -d -1day) cd /usr/local/nginx/logs if [ ! -d bak ] ; then mkdir -p bak fi mv
原创 2022-12-23 01:06:53
105阅读
#!/bin/bash #author:yuxiaoguang #date:2016/5/22 DATE=`date -d "1 days ago" +"%Y%m%d"` OLD_DATE=`date -d "4 days ago" +"%Y%m%d"` PROG=/usr/local/nginx/
原创 2016-05-22 19:16:28
836阅读
小短文,介绍了两种分割Nginx日志的方法。按照新日志文件保存的内容是历史日志还是新生成的实时日志,分别叫做切割法和分离法
原创 2016-02-24 19:28:36
3075阅读
新建一个脚本 #!/bin/bash #2012-9-29  gary savepath='/data/log/nginx' nglogs='/usr/local/nginx/logs' mkdir -p $savepath/$(date +%Y-%m) mv $nglogs/access.log $savepath/$(date +%Y-%m)/access.$(d
原创 2012-09-29 18:26:41
565阅读
  • 1
  • 2
  • 3
  • 4
  • 5