在高qps的系统中,为了避免每次请求都查询数据库,给数据库造成很大的压力,一般都会使用缓存来减轻数据库的访问压力。不过缓存的一些问题会导致缓存失去应有的作用,使得请求还是访问了数据库,给数据库造成了很大的压力。这些问题包括缓冲穿透缓冲击穿缓冲雪崩 一、缓存穿透缓冲穿透是指请求查询的数据,在数据库中根本不存在,所以缓存中也不会有,这样每次请求都会查询数据库的现象。常见的解决方案有两种,一是
gzip几乎在在所有平台上都有支持,并且也已经成为一个行业标准,压缩率、压缩速度、解压速度都比较均衡;bzip2是基于BWT变换的一种压缩,本质是上对输入分块,每个块单独压缩,优点是压缩率很高,但压缩和解压速度都比较慢;Snappy是Google出品,优点是压缩和解压都很快,缺点是压缩率比较低,适用于对压缩率要求不高的实时压缩场景;LZ4是Snappy一个强有力的竞争对手,速度比Snappy更快,
转载 10月前
18阅读
设置密码登录
原创 2023-08-14 20:28:37
0阅读
先提供一种复杂的方法压缩日志及数据库文件如下:1.清空日志    DUMP  TRANSACTION  名  WITH  NO_LOG    2.截断事务日志:    BACKUP LOG 数据库名 WITH NO_LOG 3.收缩数据库文件(如果不压缩,数据库的文件不会减小    企业管理器-
数据库文件分为2个数据库名_Data.MDF --数据文件数据库名_Log.LDF--日志文件数据文件可以收缩,减少数据库未使用的空间。操作方法,资源管理器--》数据库--》右键--》任务--》收缩--》数据库通过选择进行收缩。日志文件随着使用时间增长,如果没有设置最大限制的话,会产生很大的文件。通...
原创 2021-08-05 17:06:12
293阅读
压缩数据库dbcc shrinkdatabase(dbname)
原创 2022-02-21 17:57:25
180阅读
松果时序数据库将每个表、每天的数据存储在一个数据文件中,数据文件分为普通文件和压缩文件,他们的特点如下:普通文件:支持写入,占用较多的磁盘空间;文件以页为单位进行管理,每个数据页只存储一个设备一段时间的数据,每个页固定为64KB。压缩文件:不支持写入,数据使用两阶段压缩,占用较少的磁盘空间;数据存储到数据块中,每个数据块存储一个设备一段时间的数据,每个数据块大小不等;每个设备的数据在磁盘上连续存储
zabbix 由于历史数据过大, 因此导致磁盘空间暴涨, 现在准备清理数据库
原创 2019-03-08 15:16:19
5768阅读
使用Truncate:清理并回收空间,(mysql,sqlserver等有自增序列的数据库将序列归零),无法恢复,不能回滚;使用drop:删除表,但不回收空间,可以恢复,不能回滚;使用delete:删除记录,不回收空间,可恢复,可回滚;
原创 2021-07-30 14:22:20
1574阅读
达思SQL数据库修复软件(支持碎片重组,支持加密的修复) 详细介绍达思SQL数据库修复软件 D-Recovery for MS SQL Server 界面达思SQL数据库修复软件(支持碎片重组,支持加密的修复)检测数据库功能能一、达思SQL数据库修复软件(支持碎片重组,支持加密的修复)综述D-Recovery for MS SQL Server达思SQL数据库修复软件是由达
达梦日志分析工具DMLOG1.使用工具的目的2.适用范围3.工具描述4.开启跟踪日志记录执行SQL5.使用条件及限制6.使用说明6.1使用前准备6.2使用方法和步骤7.结果解读 1.使用工具的目的分析SQL是DBA或者数据库服务人员很重要的工作。达梦数据库通过开启SVR_LOG捕捉数据库中运行的所有SQL,并生成SQL日志文件。DMLOG工具是一款简单易用的达梦数据库SQL日志分析工具,旨在帮助
    Log-Cutter 是JessMA开源组织开发的一个简单实用的日志切割清理工具。对于服务器的日常维护来说,日志清理是非常重要的事情,如果残留日志过多则严重浪费磁盘空间同时影响服务的性能。如果用手工方式进行清理,会花费太多时间,并且很多时候难以满足实际要求。例如:如何在每个星期六凌晨3点把超过 2G 大的日志文件进行切割,保留最新的 100M 日志记录? 网上没有发现
1 Debezium是如何从PostgreSQL抓取数据的Debebzium为PostgreSQL提供了PostgreSQL Connector,它通过同步WAL记录实现从PostgreSQL抓取数据的功能。要真正明白PostgreSQL Connector的运行原理,就必须先了解PostgreSQL的WAL机制。2 WAL(Write-Ahead Logging, 预写式日志)WAL保存了对数据
背景由于zabbix历史数据过大,导致占用过多磁盘空间,需清理数据,释放空间1、查看表占用空间情况SELECTtable_nameAS"Tables",round(((data_length+index_length)/1024/1024),2)"SizeinMB"FROMinformation_schema.TABLESWHEREtable_schema='zabbix'ORDERBY(data
原创 2019-07-04 11:58:05
6679阅读
工作需要清理一个数据库,进行空间压缩。因为用的是express版本。有空间限制,超过5g大小就不给写入数据了。 想通过sql server agent 写定时任务处理。 ······ 现实是残酷的,都说是express版本了,哪里会给你写定时任务功能。 思考一番,找到了powershell来清理的方法 一、编写powershell脚本 脚本如下,内容可以根据实际情况修改 #配置信息:这四个信息,可
原创 2023-04-11 18:56:43
342阅读
对于行存储(相比列存储)的表和索引,启用数据压缩最直接效果是能够减小数据占用的存储空间的大小;除了节省空间之外,数据压缩还能提高 I/O 密集型查询的性能,因为数据存储在更少的数据页(Data Page)中,SQL Server需要从磁盘读取的数据页更少,数据从Disk加载到内存的速度更快,查询的性能更好。但是,压缩和解压缩的过程都需要消耗额外的CPU资源,开发者必须均衡CPU资源,数据存储和硬盘
1、用BACKUP LOG database WITH NO_LOG清除日志 把数据库属性中的故障还原模型改为“简单”可以大大减慢日志增长的速度。   如果把还原模型调到简单,这样就不支持时间点还原了,但是日志文件会很小,如果数据比较重要推荐还是把数据库的还原模型调为完全 用BACKUP LOG database WITH NO_LOG命名
文章目录一、分析需求设计参数及准备程序的前期工作1.分析需求设计参数1.1 能登录指定的数据库1.2.能指定待清理的表名1.3.能指定清理数据的条件1.4.能在指定的时间点去执行程序1.5.合并参数2.参数命名以及确定格式3.准备写程序的前期工作二、设计程序的基本流程1.解析参数2.删除表中符合条件的数据记录(1)登录数据库(2)准备删除数据记录的工作——利用 rowid 和 in 提升效率3.
转载 2月前
29阅读
经常在CSDN上看到网友发帖说,压缩日志文件处理不当,导致数据库损坏,甚至不能恢复数据,于是就写了一个通用的数据库日志文件压缩的存储过程来解决此问题:/*--压缩数据库的通用存储过程 压缩日志及数据库文件大小 因为要对数据库进行分离处理 所以存储过程不能创建在被压缩数据库中--邹建 2004.03(引用请保留此信息)--*//*--调用示例 exec p_compdb 'test'--*/...
转载 2007-12-17 10:41:00
87阅读
2评论
# MySQL数据库压缩教程 ## 1. 整体流程 下面是实现MySQL数据库压缩的整体流程,以表格形式展示: | 步骤 | 描述 | | ---- | ---- | | 1. | 连接到MySQL数据库 | | 2. | 停止数据库的写入操作 | | 3. | 将数据库导出为SQL文件 | | 4. | 创建一个新的、空的数据库 | | 5. | 导入SQL文件到新的数
原创 2023-10-04 11:32:11
37阅读
  • 1
  • 2
  • 3
  • 4
  • 5