#!/bin/bash
LOG_DIR=/var/log
ROOT_UID=0
if [ "$UID" -ne $ROOT_UID ]
then
echo "Must be root to run this script."
exit 1
fi
cd $LOG            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2016-06-23 11:17:21
                            
                                588阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            vi /etc/logrotate.d/nginx #编辑脚本/usr/local/nginx/logs/*.log /usr/local/nginx/logs/nginx_logs/*.log{missingok  #忽略错误,如“日志文件无法找到”的错误提示。dateext    #切换后的日志文件会附加上一个短横线和YYYYMMDD格式的日期,没有这个配置项会附            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2017-05-19 10:50:25
                            
                                1138阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            列出当天访问次数最多的IPcut -d- -f 1 /usr/local/apache2/logs/access_log |uniq -c | sort -rn | head -20cut       -d, --delimiter=DELIM                    
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                            精选
                                                        
                            2016-03-22 15:23:57
                            
                                1074阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            set -n "1,1000p" 表示从第1行到1000行。按照上面的脚本表示 每10000行 一个文件。 另外还有个split命令可以快速切割 split [-bl] file [prefix] 参数说明:-b, --bytes=SIZE:对file进行切分,每个小文件大小为SIZE。可以指定单位            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2023-02-03 09:11:45
                            
                                241阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            shell创建清理日志脚本以如下apache日志为例:#!/bin/bashdirs=(/usr/local/apache/logs /usr/local/apache/htdocs/openshop/logs)for dir in ${dirs[*]}do   find $dir -mtime +7 -name "*.log*" -o -name "*.lqxshop*" |            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2017-03-03 14:51:02
                            
                                1574阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            本文简单介绍了如果将应用节点服务器的应用日志备份到指定备份服务器上。            
                
         
            
            
            
            一、为了更好的管理服务器,分配了不同的用户信息,记录不同的用户服务器操作日志遇见问题 1、windows编辑脚本,linux运行报错history.sh: line 6: $'\r': command not found2、当前操作用户可以查看自己日志文件,并修改 目录属性设置权限为300,可以在目录中创建日志文件 文件书香设置权限为200,只可以在文件中新增日志,不可查看和删除 3、测试过程中出            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-09 17:10:46
                            
                                156阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            实现“shell脚本存储python脚本返回”的过程可以分为以下几个步骤:
1. 创建Python脚本:首先,你需要创建一个Python脚本,用于实现你想要的功能。可以使用任何你熟悉的Python开发工具,比如PyCharm、Visual Studio Code等。假设你已经创建好了一个名为`script.py`的Python脚本。
2. 创建Shell脚本:接下来,你需要创建一个Shell脚            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2023-12-19 13:36:28
                            
                                34阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            最近工作中,发现页面的显示数据和预期不一致,在排查了数据表过后,发现错误原因不在数据表和代码逻辑中。因为数据表中的数据来自log文件,所以猜测是log中的信息有误。排查log文件过程中,因为是只读,所以试了有vim,cat,tail,grep四个,最后主要用来查看文件内容用的是tail与grep。先贴两个相关的链接:里面讲解了一些相关的信息。不过在使用的时候不可能简简单单的就能出来,比如我使用的命            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-03 17:12:08
                            
                                446阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            最近访问ftp所在的服务器时反应有点慢,于是想看看ftp是否有被爬虫爬过,然后随手写了一个简易版的日志分析工具,用来分析每日用户的来源地址及访问量。由于没有做日志切割,此脚本只是在访问日志中统计前一日的数据,想要统计更多的数据可以稍作修改。#!/bin/bashcat << EOF------------------------------------    &nb            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                            精选
                                                        
                            2016-05-27 17:15:40
                            
                                2156阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            执行shell脚本时,常常会打印一些日志到控制台,根据输出的日志,来判断脚本功能正确与否。但是,太多日志            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2022-06-16 08:00:03
                            
                                531阅读
                            
                                                        
                                点赞
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            目录1、下载jenkins2、 启动jenkins3、访问jenkins4、在当前Linux上安装maven4.1、更新wget命令,支持https请求4.2、下载maven4.3、解压安装maven4.4、配置maven环境变量4.5、maven配置阿里云镜像4.6、配置maven依赖下载的位置5、Linux安装Git6、构建我们第一个项目6.1、配置支持maven的项目构建6.2、新建任务7、            
                
         
            
            
            
            #!/bin/bash
#nginx logs cut
#cp /usr/local/nginx/logs/access.log /usr/local/nginx/logs/access.log.bak
PATH=/bin:/usr/bin:/sbin:/usr/sbin
export PATH
log_path="/usr/local/nginx            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2014-05-15 15:14:17
                            
                                923阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            #!/bin/bash
for i in $@;do
 echo ===================== "$i" =============================
 echo "IP data"
 awk '{print $1}' $i&nbs            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2015-03-27 15:48:38
                            
                                969阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            查看web访问量前十的ipawk '{print $1}' access.log |sort | uniq -c | sort -nr | head -n 10查看某一天访问量前十IPcat access.log | grep&n            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2015-11-14 16:34:43
                            
                                584阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            vim tomcat_cut.sh#!/bin/bashlog_path=/opt/tomcat8080/logsd=`date +%Y-%m-%d`d4=`date -d'30 day ago' +%Y-%m-%d`cd ${log_path} && cp catalina.out $log_path/catalina.out.$d.logecho > catalina.o            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2016-03-04 17:09:50
                            
                                3888阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            test148-aicboss%cat clear_log.sh#!/bin/bash#Lday=`date +"%Y%m%d" -d "-1days"`grep 'OutOfMemory' *$Lday*|awk '{print$1,$2}'  >>aiweb-yy-c1-${Lday}_check.txttar zcf aiweb-yy-c1-${Lday}_log.ta            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2016-05-21 00:47:28
                            
                                713阅读
                            
                                                                             
                 
                
                             
         
            
            
            
                在生产环境中日志是运维人员了解和分析生产环境的第一手资料,但是日志信息的内容量相当庞大,特别在公有云环境中运行的业务系统,一般系统盘在20G-40G左右,如果没有合理的日志管理方案,很容易出现存储空间不够的现象,总结了以下几种日志处理的简单方式,作为自己的实践笔记,同时和大家一起交流学习。1、部分日志行数太多,时间周期比较久,里面没有什么很重要的价值            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2016-12-12 15:42:23
                            
                                946阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            在Kubernetes(K8S)中,定时清理日志是一个常见的需求,通过编写定时清理日志的Shell脚本可以实现自动清理过期日志,释放存储空间,提高系统性能。本文将介绍如何编写定时清理日志的Shell脚本,并为刚入行的小白开发者提供实用的指导和代码示例。
整体流程
为了实现定时清理日志的Shell脚本,我们首先需要安装kubectl命令行工具,然后通过Cron调度程序定时执行清理日志脚本,最后编写            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-05-08 10:33:40
                            
                                96阅读
                            
                                                                             
                 
                
                             
         
            
            
            
             应用场景:保留文件、清空内容分析:日志文件:/var/log/messages只有root用户可以查看日志文件,普通用户不能。shell代码:    #!/bin/bash    LOG_DIR=/var/log    ROOT_UID=0  &n            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2013-08-19 20:21:18
                            
                                1300阅读