登录到服务器上df -i
一看/路径下96%而数据目录/data下才用了30%故初步判断生成的数据量正常可能是一些系统产生的文件把根路径占满了
于是乎在执行以下命令查看根路径下各个文件夹的文件数
for i in /*; do echo $i; find $i |wc -l|sort -nr; done
数文件数超过10W的有两个/data我们的数据分区确认数据量正常和/var
/data 13W+文件
/var下70W+文件
楼主linux水平有限于是把/var下的目录一个个的执行了上面的命令
for i in /var/cache; do echo $i; find $i |wc -l|sort -nr; done
for i in /var/db; do echo $i; find $i |wc -l|sort -nr; done
........
重点来了当执行到下面的时候
for i in /var/spool/; do echo $i; find $i |wc -l|sort -nr; done
文件夹里有70W+文件
于是重复上述步骤终于找到了罪魁祸首
for i in /var/spool/postfix/maildrop/; do echo $i; find $i |wc -l|sort -nr; done
/var/spool/postfix/maildrop/下有67W+文件
楼主百度了一把发现了这篇文章http://www.shangxueba.com/jingyan/121368.html
于是乎执行rm -rf ./* 竟然报错
只能来大招了。
find . -name "*" | xargs rm -rf
10S后成功收到报警解除的邮件
胜利处理完困扰我好几天的问题
彻底解决Linux索引节点(inode)用满导致故障的方法
原创
©著作权归作者所有:来自51CTO博客作者古城寨主的原创作品,请联系作者获取转载授权,否则将追究法律责任
上一篇:redis命令
下一篇:Redis 配置文件
提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
Linux ❀ 系统索引节点inode详解
文章目录1、什么是inode2、inode的内容3、inode的大小4、inode的
linux 运维 文件名 硬链接 软链接