我的博客已迁移到xdoujiang.com请去那边和我交流 1、日志结构 /opt/online/{123com,abccom}/log/online[1-9]/[a-z] 2、变量说明 #是否开启压缩功能(0:关闭,1:开启;若关闭压缩功能,则compressdayn无效) needcompress=1 删除14天以前的日志 deldayn=14 前1天 lastdayn=1 服务类型 all
原创 精选 2015-05-19 17:29:25
2735阅读
由于项目的特殊需求,需要保留项目每天的日志,而日志文件又很大,时间久了会影响磁盘的使用量,因此必须定期的压缩备份以前的日志文件,这里我是通过shell脚本压缩打包文件然后加入到linux的定时任务中来处理的,虽说shell脚本很简单就是那么几行,但是当中遇到的问题还是做一下说明: 最初的做法我是直接用tar命令打包日志目录下面的日志文件,打包成功后删除日志文件,我的shell脚本如下:#!/bi
原创 2013-10-12 11:50:01
7075阅读
1点赞
一、日志文件样式 二、目标 1、备份压缩.log结尾&&时间样式为“date +%Y%m%d”的日志文件(如:20170912、20160311等)2、可指定压缩范围(N天前至当天):如:今天、昨天(date -d "-1 day" +%Y%m%d)至今天、前天至今天压缩命名格式为:日期.tar.gz(或:日期.tar.bz2),压缩N天范围内文件后将会生成N个
1、tools目录文件结构 [root@www tools]# tree tools/ tools/ ├── bin │ └── gzip_history_files └── etc └── gzip_history_files.cfg 2 directories, 2 files 2、压缩历史文件
转载 2020-05-21 10:14:00
735阅读
2评论
     web服务器每天的日志文件600多M,比较大,因为磁盘空间的问题,不利于长期保存,因此写了下面的一个小脚本,使得它每个周日的时候自动压缩日志文件,并删除未压缩的文件,这样一来可节省空间了,600多M的文件压缩后就20多M ps下脚本: #cat clear.sh   #!/bin/bash for name in `find /va
原创 2011-05-25 15:07:42
1373阅读
1点赞
1评论
#!/bin/bash Src_Path=/data/www/logs Dst_Path=/data/www/logs_bak for rfile in `find $Src_Path/ -depth -maxdepth 1 -type f |awk -F '/' '{print $NF}'` do tar -zcPvf $Dst_Path/$rfile.tar.gz $Src_Pat...
转载 2018-07-27 19:44:00
92阅读
2评论
#!/bin/bash LOG_DIR=/var/log ROOT_UID=0 if [ "$UID" -ne $ROOT_UID ] then echo "Must be root to run this script." exit 1 fi cd $LOG
原创 2016-06-23 11:17:21
588阅读
vi /etc/logrotate.d/nginx #编辑脚本/usr/local/nginx/logs/*.log /usr/local/nginx/logs/nginx_logs/*.log{missingok  #忽略错误,如“日志文件无法找到”的错误提示。dateext    #切换后的日志文件会附加上一个短横线和YYYYMMDD格式的日期,没有这个配置项会附
原创 2017-05-19 10:50:25
1138阅读
列出当天访问次数最多的IPcut -d- -f 1 /usr/local/apache2/logs/access_log |uniq -c | sort -rn | head -20cut       -d, --delimiter=DELIM        
转载 精选 2016-03-22 15:23:57
1074阅读
set -n "1,1000p" 表示从第1行到1000行。按照上面的脚本表示 每10000行 一个文件。 另外还有个split命令可以快速切割 split [-bl] file [prefix] 参数说明:-b, --bytes=SIZE:对file进行切分,每个小文件大小为SIZE。可以指定单位
原创 2023-02-03 09:11:45
241阅读
shell创建清理日志脚本以如下apache日志为例:#!/bin/bashdirs=(/usr/local/apache/logs /usr/local/apache/htdocs/openshop/logs)for dir in ${dirs[*]}do   find $dir -mtime +7 -name "*.log*" -o -name "*.lqxshop*" |
原创 2017-03-03 14:51:02
1574阅读
本文简单介绍了如果将应用节点服务器的应用日志备份到指定备份服务器上。
原创 10月前
319阅读
一、为了更好的管理服务器,分配了不同的用户信息,记录不同的用户服务器操作日志遇见问题 1、windows编辑脚本,linux运行报错history.sh: line 6: $'\r': command not found2、当前操作用户可以查看自己日志文件,并修改 目录属性设置权限为300,可以在目录中创建日志文件 文件书香设置权限为200,只可以在文件中新增日志,不可查看和删除 3、测试过程中出
转载 2024-06-09 17:10:46
156阅读
因生产环境的tomcat日志太多,需要做自动化清理,只留90内的,所以90天以外的就直接删除了,90内的就要用脚本批量打包再删除原文件脚本如下:[root@aa]#catfor.sh#!/bin/bashtomcat_log=/usr/local/tomcat/logsaccess_log=localhost_access_logfor((i=74;i>6;i--))dodates=`dat
原创 2018-09-14 17:22:21
2525阅读
1点赞
只需要将日志文件移动到备份目录下然后将日志压缩打包,并删除日志文件最后重建日志文件#!/bin/bash # nginx_app=/usr/local/nginx/sbin/nginx logs_dir=/usr/local/nginx/logs bak_dir=/tmp/logbak/ date=`date +%Y%m%d` # #先将日志文件移动到备份目录 cd $logs_dir echo
原创 2013-07-02 14:09:44
2979阅读
最近工作中,发现页面的显示数据和预期不一致,在排查了数据表过后,发现错误原因不在数据表和代码逻辑中。因为数据表中的数据来自log文件,所以猜测是log中的信息有误。排查log文件过程中,因为是只读,所以试了有vim,cat,tail,grep四个,最后主要用来查看文件内容用的是tail与grep。先贴两个相关的链接:里面讲解了一些相关的信息。不过在使用的时候不可能简简单单的就能出来,比如我使用的命
## Java 创建shell脚本进行压缩 ### 简介 在软件开发中,我们经常需要对文件进行压缩操作,以减小文件体积或方便文件传输。在Java中,我们可以使用shell脚本来实现文件的压缩操作。本文将教会刚入行的小白如何使用Java创建shell脚本进行文件压缩。 ### 整体流程 下面是使用Java创建shell脚本进行文件压缩的整体流程: ```mermaid gantt ti
原创 2023-10-17 13:37:36
101阅读
最近访问ftp所在的服务器时反应有点慢,于是想看看ftp是否有被爬虫爬过,然后随手写了一个简易版的日志分析工具,用来分析每日用户的来源地址及访问量。由于没有做日志切割,此脚本只是在访问日志中统计前一日的数据,想要统计更多的数据可以稍作修改。#!/bin/bashcat << EOF------------------------------------    &nb
转载 精选 2016-05-27 17:15:40
2156阅读
执行shell脚本时,常常会打印一些日志到控制台,根据输出的日志,来判断脚本功能正确与否。但是,太多日志
转载 2022-06-16 08:00:03
531阅读
1点赞
目录1、下载jenkins2、 启动jenkins3、访问jenkins4、在当前Linux上安装maven4.1、更新wget命令,支持https请求4.2、下载maven4.3、解压安装maven4.4、配置maven环境变量4.5、maven配置阿里云镜像4.6、配置maven依赖下载的位置5、Linux安装Git6、构建我们第一个项目6.1、配置支持maven的项目构建6.2、新建任务7、
  • 1
  • 2
  • 3
  • 4
  • 5