du简单用法示例du -sh xmldb/
du -sm * | sort -n //统计当前目录大小 并安大小 排序
du -sk * | sort -n
du -sk * | grep guojf //看一个人的大小
du -m | cut -d "/" -f 2 //看第二个/ 字符前的文字查看此文件夹有多少文件 * 有多少文件du xmldb/
du xmldb* |wc -l输出: 40
转载
2023-07-24 22:36:22
135阅读
ls -l filename | awk '{ print $5,$9 }' ls -l filename | awk '{ print $5 }'
转载
2014-01-16 14:25:00
1498阅读
2评论
ls -l test.cpp | awk '{print $5}'stat -c "%s" test.cppwc -c < test.cpp
原创
2022-12-01 16:37:32
443阅读
首先:查看当前文件夹大小的命令是:[root@host1 test]# du -sh39M.查看当前文件夹下所有文件的大小:[root@host1 test]# du -sh *108Kconfig-2.6.32-573.el6.x86_64264Kefi284Kgrub27Minitramfs-2.6.32-573.el6.x86_64.img4.4Minitrd-2.6.32-573.el6.
转载
2024-10-15 19:47:57
50阅读
# Hadoop Shell查看文件大小
## 引言
Hadoop是一个用于处理大数据集的开源分布式计算框架。它提供了一个高效的文件系统(HDFS)以及一个强大的计算引擎(MapReduce)。在Hadoop中,我们可以使用Hadoop Shell来操作文件和目录,包括查看文件大小、创建目录、复制文件等等。本文将重点介绍如何使用Hadoop Shell来查看文件大小。
## Hadoop S
原创
2023-08-21 08:12:19
218阅读
前言 Linux 中有几个命令可以查看文件的内容,而不需要调用其他文本编辑器(例如:UltraEdit)。下面通过 linux shell 命令 file查看文件内容。file命令 查看文件类型在显示文件内容之前,应该先了解一下文件的类型。如果打开了一个二进制文件,你会在屏幕上看到各种乱码,除非用(UltraEdit)打开二进制文件。file 命令是一个随手可得的便捷工具,它能够探测文件的内部,并
转载
2024-01-08 16:33:30
52阅读
stat --format=%s $filenamels -l filename | awk '{print $5}'du -b filename | awk '{print $1}'wc -c filename | awk '{print $1}'wc -c < filenamestat -c "%s" filename
原创
2023-09-06 11:33:12
251阅读
在工作和日常的编程中时常需要确定文件的大小,一些基本的查看方式在此做一个总结。一. linux shell环境下df可以查看一级文件夹大小、使用比例、档案系统及其挂入点,但对文件却无能为力。 du可以查看文件及文件夹的大小。两者配合使用,非常有效。比如用df查看哪个一级目录过大,然后用df查看文件夹或文件的大小,如此便可迅速确定症结。下面分别简要介绍d
转载
2023-12-06 21:30:26
214阅读
# 使用Python脚本获取HDFS文件大小的详细指南
在大数据处理的过程中,Hadoop分布式文件系统(HDFS)是一个常用的存储系统。了解如何查询HDFS文件的大小对维护和管理大数据处理至关重要。本文将指导你如何使用Python脚本获取HDFS文件的大小,下面是整个流程的概述。
## 流程概述
| 步骤 | 描述 |
|------|------|
| 1 | 安装所需库 |
|
原创
2024-08-15 04:52:41
134阅读
df -h ,这个命令用于查看服务器空间,运行后的效果图如下: [root@localhost /]# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/centos-root 8.3G 5.4G 2.9G 66% / devt
转载
2020-07-06 15:48:00
136阅读
#!/bin/sh #du -h /www/db/mysqldb/data/ >DB_CONTROL_NUM.txt #du -h /www/db/mysqldb/data/ |grep M | awk '{print $2}' >DB_CONTROL_NUM.txt #du -s /www/db/mysqldb/data/* | awk '{print $2}' >DB_CON
原创
2013-09-29 17:48:04
442阅读
1、示例1 功能:对mongoDB导出数据,根据sid的不同状态进行统计 技术点:shell bash 读写文件、字符串截取、函数、用多个文件提到的map、grep查找并赋值给变量 2、示例 功能:根据ID调用mongo client进行查询并将结果存入变量,通过ssh远程登录获取响应的文件大小
转载
2019-08-25 19:48:00
436阅读
2评论
废话少说,上代码import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.IOException;
/**
* @Author:GaoXiaoZhuang
* @Company:ZhongRuan
* @Descr
转载
2024-01-31 01:19:51
165阅读
7天内的备份全部保留,7天外的备份只保留3份格式如下:/u02/applications/micro-shop-20161117-1650.tgz/u02/applications/micro-shop-20161124-1446.tgz/u02/applications/micro-shop-20161208-1847.tgz/u02/applications/micro-shop-201612
原创
2017-02-04 17:57:43
1014阅读
shell创建清理日志脚本以如下apache日志为例:#!/bin/bashdirs=(/usr/local/apache/logs /usr/local/apache/htdocs/openshop/logs)for dir in ${dirs[*]}do find $dir -mtime +7 -name "*.log*" -o -name "*.lqxshop*" |
原创
2017-03-03 14:51:02
1574阅读
背景今年年中的时候,我司和腾讯达成了一项深度合作,涉及到的数据量还挺大的。果不其然,谈下合作后负责实施的还是我这个“什么都干司令”。具体流程:从我司已有产品中,筛出一部分数据数据清理处理成通用格式(因为老板说后续不仅仅只跟腾讯合作)输出给腾讯(实时处理成腾讯方需要的格式)并且记录输出时间在本地因为数据清理+处理比较费时间和空间,所以本地临时搞了一台高性能台式机作为服务器(是的,本“什么都干司令”还
转载
2024-10-17 19:01:14
56阅读
不知道大家那有没有要清理的这个事情。需要清理目录历史文件。可能后续也会有很多其他地方需要清理历史文件,可能会用到。 我这两天空闲写了个脚本,清理比较方便,有要进行清理的大量历史文件的话可以用。 脚本用到的命令只有linux才有,像solaris等就不支持,所以只能在linux上运行。如果是nas存储
转载
2021-07-22 13:16:54
1694阅读
位(bit):一个数字0或者一个数字1,代表一位。 字节(Byte):每八位为一字节,这是数据存储的最小单位。 1 Byte = 8 bit
1 KB = 1024 Byte
1 MB = 1024 KB
1 GB = 1024 MB
1 TB = 1024 GB
1 PB = 1024 TB
…命令提示符(cmd)启动 win+R 切换盘符 盘符名称: 进入文件夹 cd 文件夹名称
转载
2023-11-14 14:21:34
222阅读
获取文件的大小 KB、MB、GB、BT在做清理文件的时候发现,文件大小 和 文件的 占用空间 是不一样的(可以查看电脑上详细看到),通过 length()方法得到的是文件占用空间,下面提供文件大小的获取方式。单位是B。FileInputStream fis = null;
String fileSize = "";
try {
fis = new FileInputStream(f);
转载
2023-06-05 17:46:48
741阅读
1. HDFS的整体架构模糊词汇解释:
Client: 凡是通过API或者HDFS命令访问HDFS的一端,都可以看做是客户。
Rack: 机架,副本的放置策略与机架有关。
Block Size: Hadoop2.7.3开始默认为128 M,Hadoop2.7.3以下默认为64 M。2. block、packet、chunk的关系block、packet、chunk都是HDFS中涉及到的数据存储单位
转载
2024-05-06 20:17:50
190阅读