QF内容​[@MagicAttack]​#act​#CALL [\切割\切割.txt] @切割​Break​QD自行添加​[@切割]​#if​checkitemw 物品名字 1​NOT CHECKCURRTARGETRACE = 0​random 75​#ACT​AddhpPer - 2​SendCenterMsg 180 251 【物品名字】切割效果触发,瞬间秒掉怪物2%的血量. 0 3​Bre
原创 2022-12-26 13:48:37
10000+阅读
页面介绍一.首页介绍二.Datasets1.Home首页介绍1.1Climate and Weather——对应上面的”Browse by tags”标签,即为按照标签访问数据1.2Imagery——对应上面的”landsat、MODIS、Sentinel”标签,即为不同/传感器的数据1.3Geophysical——地球----对应上面的”Browse by tags”标签,即为按照标签访问
在 Windows 下,我们经常可以在各种文本编辑工具中将某些常用的命令保存起来,进行一系列的自动脚本,来帮助我们执行批处理命令,在 Linux 下,我们也可以使用某些工具来高效,轻松地来进行这些工作,本文以 gnome 下的自带图形文本编辑器 gedit 来说明一个简单的例子。OK,让我们开始:1. 打开 gedit ,并找到菜单 “编辑” -> “首选项”,在 “插件” 选项,选择 “外
日志切割脚本
转载 2017-12-01 18:04:37
563阅读
#!/bin/bash#return error code#0: success#1: parameter error#6: custom.log file is empty#7: cut  file error#8: up log file successTAR_DIR_FILE_MAX=30MAIN_LOG_FILE_MAX=1024MAIN_LOG_NAME='custom.log
原创 2016-11-01 14:22:38
703阅读
        先说明一点,从正式学习GEE(google earth engine)到现在只过去了3个月,我自身就是一个初学者,很多时候从初学者和非常直白的角度去想问题,不会绕弯子,也不懂很复杂的东西。但是也算是入了一个门,已经学会了借助别人的力量去写自己的代码(简称复制粘贴),同时也能自己不抄别人的代码完成一些简单的操作。这篇文章就从一个初学者的角度去帮
Nginx日志默认不做人为处理,日志文件会存放在access.log,error.log两个文件中,随着时间的推移,日志量会越来越大,不方便编辑查看,为了让日志按天存放,可以做一些配置,设置一个定时任务,每天凌晨00:00开始备份昨天的日志,然后重新开启一个新的日志文件。本文实现的功能是在每天凌晨00:00把前一天的Nginx日志access.log重命名为access-xxxx-xx-xx.lo
原创 2022-12-30 15:44:38
937阅读
#!/bin/bash #The script is run at 00:00 #The nginx logs #5 backup automatically retained nginx_logs="//home/wwwlogs//" find ${nginx_logs}/$(date -d "yesterday" "+%Y&q
原创 2013-04-04 11:22:13
587阅读
#!/bin/bash logs_path="/opt/nginx/logs" #####这是我的nginx日志文件所在的目录 date=$(date -d "yesterday" +"%Y-%m-%d") ###定义前一天的时间,格式为年-月-日 mv ${logs_path}/access.log ${logs_path}/access_$da
原创 2014-12-19 14:59:04
634阅读
1点赞
3评论
#!/bin/bashif [ -z $1 ];then        echo 'Usage: cutlog [log path]'else        if [ ! -e /data/wwwlogs/$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m")
原创 2016-02-15 15:17:34
965阅读
实现方法一?1234五67891011121314151617181920212223242526272829三十3132333435#!/bin/bashlogs_path="/data/application/nginx/logs"pid_path="/data/application/nginx/nginx.pid"month=`date +%y-%m`date=`date +%y-%m-%
原创 2019-06-13 11:28:56
756阅读
nginx 日志切割脚本
原创 2013-07-11 10:57:16
572阅读
15 分钟之后,我要去朋友家聚会。我打算从我的台式机上把一部 700MB 大小的美国大片拷贝出来,带到朋友家去看,可是我的两个优盘都只有 512MB,这让我如何是好?别急,用 10 分钟赶快来认识一下我们的 split 拆分小能手,一切问题将迎刃而解。当遇到大文件而苦不堪言的时候,split 就会像天使一样解救我们于水火之中。合久必分闲言少叙,我们现在就来介绍拆分的方法。先使用 dd 命令来生成一
说明:本文主要介绍nginx的日志管理,具体包括日志的使用、日志切割备份。查看Nginx的server段,可以看到如下信息:#access_log logs/host.access.log main;这说明,该server,他的访问日志文件是logs/host.access.log。使用的格式是“main”,除了main格式,还可以自定义其他格式。Main格式:log_format  m
作者:coralzd                    网址 www.freebsdsystem.org/cut_nginx_logs 继续共享在线上运行一年半的nginx 日志切割脚本。 &nbsp
原创 2011-03-02 16:07:12
1006阅读
今天要切割一个很大的日志文件,这个日志文件已经是按每天切割过的了,但是仍然很大,内存不足无法处理,所以需要进一步把这个文件按行切割。在网上搜索好久,终于找到一个高手的脚本,在这里感谢他,此处为脚本的转载,一起学习。 #!/bin/sh #print arguments echo "argument 1 is:"$1 echo "argument 2 is:&q
转载 精选 2011-12-02 11:38:52
565阅读
nginx日志切割脚本
原创 2012-02-09 17:54:03
422阅读
   由于Nginx没有apache的cronolog日志分割处理功能,因此可以对nginx对日志进行处理脚本如下:   #/bin/bash savepath_log=`/home/nginx/logs` nglogs=`/opt/nginx/logs` mkdir -p $savepath_log/$(date +%Y)/$(date +%m) mv
转载 精选 2012-04-16 19:05:35
402阅读
#!/bin/bash  LOG_DIR=/opt/logs LOG_BACK=back PID=/opt/logs/nginx.pid DATE=`date +%F` DEL_DATE=`date +%F -d "15 days ago"` &nb
原创 2012-04-24 11:16:33
882阅读
1点赞
2评论
Nginx日志切割脚本#!/bin/bash   logs_path="/alidata/server/log/nginx/"    mv ${logs_path}access.log ${logs_path}access_$(date -d "yesterday" +"%Y%m%d").log    kill -USR1 `cat /alidat
原创 2014-04-11 13:00:34
838阅读
  • 1
  • 2
  • 3
  • 4
  • 5