#!/bin/bash
LOG_DIR=/var/log
ROOT_UID=0
if [ "$UID" -ne $ROOT_UID ]
then
echo "Must be root to run this script."
exit 1
fi
cd $LOG
原创
2016-06-23 11:17:21
588阅读
vi /etc/logrotate.d/nginx #编辑脚本/usr/local/nginx/logs/*.log /usr/local/nginx/logs/nginx_logs/*.log{missingok #忽略错误,如“日志文件无法找到”的错误提示。dateext #切换后的日志文件会附加上一个短横线和YYYYMMDD格式的日期,没有这个配置项会附
原创
2017-05-19 10:50:25
1138阅读
列出当天访问次数最多的IPcut -d- -f 1 /usr/local/apache2/logs/access_log |uniq -c | sort -rn | head -20cut -d, --delimiter=DELIM
转载
精选
2016-03-22 15:23:57
1074阅读
set -n "1,1000p" 表示从第1行到1000行。按照上面的脚本表示 每10000行 一个文件。 另外还有个split命令可以快速切割 split [-bl] file [prefix] 参数说明:-b, --bytes=SIZE:对file进行切分,每个小文件大小为SIZE。可以指定单位
原创
2023-02-03 09:11:45
241阅读
shell创建清理日志脚本以如下apache日志为例:#!/bin/bashdirs=(/usr/local/apache/logs /usr/local/apache/htdocs/openshop/logs)for dir in ${dirs[*]}do find $dir -mtime +7 -name "*.log*" -o -name "*.lqxshop*" |
原创
2017-03-03 14:51:02
1574阅读
本文简单介绍了如果将应用节点服务器的应用日志备份到指定备份服务器上。
一、为了更好的管理服务器,分配了不同的用户信息,记录不同的用户服务器操作日志遇见问题 1、windows编辑脚本,linux运行报错history.sh: line 6: $'\r': command not found2、当前操作用户可以查看自己日志文件,并修改 目录属性设置权限为300,可以在目录中创建日志文件 文件书香设置权限为200,只可以在文件中新增日志,不可查看和删除 3、测试过程中出
转载
2024-06-09 17:10:46
156阅读
最近工作中,发现页面的显示数据和预期不一致,在排查了数据表过后,发现错误原因不在数据表和代码逻辑中。因为数据表中的数据来自log文件,所以猜测是log中的信息有误。排查log文件过程中,因为是只读,所以试了有vim,cat,tail,grep四个,最后主要用来查看文件内容用的是tail与grep。先贴两个相关的链接:里面讲解了一些相关的信息。不过在使用的时候不可能简简单单的就能出来,比如我使用的命
转载
2024-05-03 17:12:08
446阅读
应用场景:保留文件、清空内容分析:日志文件:/var/log/messages只有root用户可以查看日志文件,普通用户不能。shell代码: #!/bin/bash LOG_DIR=/var/log ROOT_UID=0 &n
原创
2013-08-19 20:21:18
1300阅读
使用Shell脚本切割web日志
原创
2017-04-25 12:02:43
629阅读
#!bin/bash LOG_DIR=/var/log ROOT_UID=0if[''$UID'' -ne ''$ROOT_UID'']then echo''Must be root to run this srcripts'' exit 1 fi cd $LOG
原创
2017-07-20 07:53:47
1372阅读
一、脚本思路第一步就是重命名日志文件,不用担心重命名后nginx找不到日志文件而丢失日志。在你未重新打开原名字的日志文件前,nginx还是会向你重命名的文件写日志,linux是靠文件描述符而不是文件名定位文件。第二步向nginx主进程发送usr1信号。nginx主进程接到信号后会从配置文件中读取日志文件名称,重新打开日志文件(以配置文件中的日志名称命名),并以工作进程的用户作为日志文件的所有者。重
原创
2019-06-13 11:22:48
732阅读
#!/bin/bash
#nginx logs cut
#cp /usr/local/nginx/logs/access.log /usr/local/nginx/logs/access.log.bak
PATH=/bin:/usr/bin:/sbin:/usr/sbin
export PATH
log_path="/usr/local/nginx
原创
2014-05-15 15:14:17
923阅读
#!/bin/bash
for i in $@;do
echo ===================== "$i" =============================
echo "IP data"
awk '{print $1}' $i&nbs
原创
2015-03-27 15:48:38
969阅读
查看web访问量前十的ipawk '{print $1}' access.log |sort | uniq -c | sort -nr | head -n 10查看某一天访问量前十IPcat access.log | grep&n
原创
2015-11-14 16:34:43
584阅读
vim tomcat_cut.sh#!/bin/bashlog_path=/opt/tomcat8080/logsd=`date +%Y-%m-%d`d4=`date -d'30 day ago' +%Y-%m-%d`cd ${log_path} && cp catalina.out $log_path/catalina.out.$d.logecho > catalina.o
原创
2016-03-04 17:09:50
3888阅读
test148-aicboss%cat clear_log.sh#!/bin/bash#Lday=`date +"%Y%m%d" -d "-1days"`grep 'OutOfMemory' *$Lday*|awk '{print$1,$2}' >>aiweb-yy-c1-${Lday}_check.txttar zcf aiweb-yy-c1-${Lday}_log.ta
原创
2016-05-21 00:47:28
713阅读
在生产环境中日志是运维人员了解和分析生产环境的第一手资料,但是日志信息的内容量相当庞大,特别在公有云环境中运行的业务系统,一般系统盘在20G-40G左右,如果没有合理的日志管理方案,很容易出现存储空间不够的现象,总结了以下几种日志处理的简单方式,作为自己的实践笔记,同时和大家一起交流学习。1、部分日志行数太多,时间周期比较久,里面没有什么很重要的价值
原创
2016-12-12 15:42:23
946阅读
在Kubernetes(K8S)中,定时清理日志是一个常见的需求,通过编写定时清理日志的Shell脚本可以实现自动清理过期日志,释放存储空间,提高系统性能。本文将介绍如何编写定时清理日志的Shell脚本,并为刚入行的小白开发者提供实用的指导和代码示例。
整体流程
为了实现定时清理日志的Shell脚本,我们首先需要安装kubectl命令行工具,然后通过Cron调度程序定时执行清理日志脚本,最后编写
原创
2024-05-08 10:33:40
96阅读
最近访问ftp所在的服务器时反应有点慢,于是想看看ftp是否有被爬虫爬过,然后随手写了一个简易版的日志分析工具,用来分析每日用户的来源地址及访问量。由于没有做日志切割,此脚本只是在访问日志中统计前一日的数据,想要统计更多的数据可以稍作修改。#!/bin/bashcat << EOF------------------------------------ &nb
转载
精选
2016-05-27 17:15:40
2156阅读