获取本机IP:
 
#! /bin/bash LISTIPCMD='/sbin/ifconfig' IP=$($LISTIPCMD | grep 'inet addr:' | grep -v '127.0.0.1'| awk'{print $2}'&nbs            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2012-07-04 17:42:13
                            
                                337阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            Android收集日志 脚本
随着移动设备的普及,Android应用的日志收集在技术支持、故障排除和用户体验优化中变得至关重要。通过有效的日志收集,我们能够及时发现并解决潜在问题,从而为用户提供更为流畅和稳定的体验。以下是详细的日志收集脚本的解决过程,以确保我们在遇到相应问题时,能够有序地进行调试、排查及优化。
### 背景定位
在过去的几个月里,我们注意到用户在使用某款Android应用时            
                
         
            
            
            
            概述常见的日志采集工具有Logstash、Filebeat、Fluentd、Logagent、rsyslog等等,那么他们之间有什么区别呢?什么情况下我们应该用哪一种工具?LogstashLogstash是一个开源数据收集引擎,具有实时管道功能。Logstash可以动态地将来自不同数据源的数据统一起来,并将数据标准化到你所选择的目的地。优势Logstash 主要的有点就是它的灵活性,主要因为它有很            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-17 22:37:25
                            
                                43阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            FlumeFlume日志收集一、Apache Flume简介二、Flume架构三、Flume安装配置1、安装2、首次测试四、Flume学习1、Flume工作流程2、Flume构成五、Source1、exec source2、spooling directory source3、http source4、avro source5、taildir source六、channel七、Sink1、avr            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-10 11:03:38
                            
                                36阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            将某文件远程拷贝到指定ip机器上的指定目录下:./scp_file.sh /tmp/xx.sh /tmp/test/echo "将文件 $1 拷贝到 $2 目录下!"
for ip in 192.168.60.243 192.168.60.244 192.168.60.245 192.16            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2016-10-08 11:36:21
                            
                                1444阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            日志清理文件#!/bin/bash
log_dir="/var/log"
keep_days=7
find $log_dir -type -f -mtime +$keep_days -exec rm -f {} \;
echo "日志清理完成"备份文件脚本backup_dir="/backup"
backup_file="backup_$(date +%Y%m%d).tar.gz"
mkdi            
                
         
            
            
            
            列出当天访问次数最多的IPcut -d- -f 1 /usr/local/apache2/logs/access_log |uniq -c | sort -rn | head -20cut       -d, --delimiter=DELIM                    
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                            精选
                                                        
                            2016-03-22 15:23:57
                            
                                1074阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            set -n "1,1000p" 表示从第1行到1000行。按照上面的脚本表示 每10000行 一个文件。 另外还有个split命令可以快速切割 split [-bl] file [prefix] 参数说明:-b, --bytes=SIZE:对file进行切分,每个小文件大小为SIZE。可以指定单位            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2023-02-03 09:11:45
                            
                                241阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            shell创建清理日志脚本以如下apache日志为例:#!/bin/bashdirs=(/usr/local/apache/logs /usr/local/apache/htdocs/openshop/logs)for dir in ${dirs[*]}do   find $dir -mtime +7 -name "*.log*" -o -name "*.lqxshop*" |            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2017-03-03 14:51:02
                            
                                1574阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            本文简单介绍了如果将应用节点服务器的应用日志备份到指定备份服务器上。            
                
         
            
            
            
            #!/bin/bash
LOG_DIR=/var/log
ROOT_UID=0
if [ "$UID" -ne $ROOT_UID ]
then
echo "Must be root to run this script."
exit 1
fi
cd $LOG            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2016-06-23 11:17:21
                            
                                588阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            vi /etc/logrotate.d/nginx #编辑脚本/usr/local/nginx/logs/*.log /usr/local/nginx/logs/nginx_logs/*.log{missingok  #忽略错误,如“日志文件无法找到”的错误提示。dateext    #切换后的日志文件会附加上一个短横线和YYYYMMDD格式的日期,没有这个配置项会附            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2017-05-19 10:50:25
                            
                                1138阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            一、为了更好的管理服务器,分配了不同的用户信息,记录不同的用户服务器操作日志遇见问题 1、windows编辑脚本,linux运行报错history.sh: line 6: $'\r': command not found2、当前操作用户可以查看自己日志文件,并修改 目录属性设置权限为300,可以在目录中创建日志文件 文件书香设置权限为200,只可以在文件中新增日志,不可查看和删除 3、测试过程中出            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-09 17:10:46
                            
                                156阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            目录写在最前:为什么做日志收集系统❓一、多种日志收集工具比较1、背景介绍2、Facebook 的 Scribe3、Apache 的 Chukwa4、LinkedIn 的 Kafka5、Cloudera 的 Flume OG6、“星星”小结7、众星捧月之 Apache 的 Flume NGFlume NG 架构:Flume NG 特性:Flume NG 节点组成图:Flume NG 常用组件删减节点            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-30 23:15:19
                            
                                30阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            最近工作中,发现页面的显示数据和预期不一致,在排查了数据表过后,发现错误原因不在数据表和代码逻辑中。因为数据表中的数据来自log文件,所以猜测是log中的信息有误。排查log文件过程中,因为是只读,所以试了有vim,cat,tail,grep四个,最后主要用来查看文件内容用的是tail与grep。先贴两个相关的链接:里面讲解了一些相关的信息。不过在使用的时候不可能简简单单的就能出来,比如我使用的命            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-03 17:12:08
                            
                                446阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            zabbix信息收集一般zabbix信息收            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2021-11-19 14:43:20
                            
                                1041阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            #!/bin/bash
#nginx logs cut
#cp /usr/local/nginx/logs/access.log /usr/local/nginx/logs/access.log.bak
PATH=/bin:/usr/bin:/sbin:/usr/sbin
export PATH
log_path="/usr/local/nginx            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2014-05-15 15:14:17
                            
                                923阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            #!/bin/bash
for i in $@;do
 echo ===================== "$i" =============================
 echo "IP data"
 awk '{print $1}' $i&nbs            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2015-03-27 15:48:38
                            
                                969阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            查看web访问量前十的ipawk '{print $1}' access.log |sort | uniq -c | sort -nr | head -n 10查看某一天访问量前十IPcat access.log | grep&n            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2015-11-14 16:34:43
                            
                                584阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            vim tomcat_cut.sh#!/bin/bashlog_path=/opt/tomcat8080/logsd=`date +%Y-%m-%d`d4=`date -d'30 day ago' +%Y-%m-%d`cd ${log_path} && cp catalina.out $log_path/catalina.out.$d.logecho > catalina.o            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2016-03-04 17:09:50
                            
                                3888阅读