MongoDB学习—MongoDB的架构和存储引擎笔记
1.MongoDB的逻辑结构
- MongoDB 与 MySQL 中的架构相差不多,底层都使用了可插拔的存储引擎以满足用户的不同需要。
- 用户可以根据程序的数据特征选择不同的存储引擎,在最新版本的 MongoDB 中使用了 WiredTiger 作为默认的存储引擎,WiredTiger 提供了不同粒度的并发控制和压缩机制,能够为不同种类的应用提供了最好的性能和存储率。
- 在存储引擎上层的就是 MongoDB 的数据模型和查询语言了,由于 MongoDB 对数据的存储与 RDBMS有较大的差异,所以它创建了一套不同的数据模型和查询语言。
2.MongoDB的数据模型
-
内嵌
:内嵌的方式指的是把相关联的数据保存在同一个文档结构之中。MongoDB的文档结构允许一个字段或者一个数组内的值作为一个嵌套的文档。 选择内嵌
:
- 数据对象之间有包含关系 ,一般是数据对象之间有一对多或者一对一的关系 。
- 需要经常一起读取的数据。
- 有 map-reduce/aggregation 需求的数据放在一起,这些操作都只能操作单个 collection。
-
引用
:引用方式通过存储数据引用信息来实现两个不同文档之间的关联,应用程序可以通过解析这些数据引用来访问相关数据。 选择引用
:
- 当内嵌数据会导致很多数据的重复,并且读性能的优势又不足于覆盖数据重复的弊端 。
- 需要表达比较复杂的多对多关系的时候 。
- 大型层次结果数据集 嵌套不要太深。
3.存储引擎的描述
- 存储引擎是MongoDB的核心组件,负责管理数据如何存储在硬盘和内存上。
- MongoDB支持的存储引擎有 MMAPv1 ,WiredTiger和InMemory。
- InMemory存储引擎用于将数据只存储在内存中,只将少量的元数据 (meta-data)和诊断日志(Diagnostic)存储到硬盘文件中,由于不需要Disk的IO操作,就能获取所需 的数据,InMemory存储引擎大幅度降低了数据查询的延迟(Latency)。
- 从mongodb3.2开始默认的存储 引擎是WiredTiger,3.2版本之前的默认存储引擎是MMAPv1,mongodb4.x版本不再支持MMAPv1存储引擎。
storage:
journal:
enabled: true
dbPath:/data/mongo/
##是否一个库一个文件夹
directoryPerDB:true
##数据引擎
engine:wiredTiger
##WT引擎配置
WiredTiger:
engineConfig:
##WT最大使用cache(根据服务器实际情况调节)
cacheSizeGB:2
##是否将索引也按数据库名单独存储
directoryForIndexes:true
journalCompressor:none (默认snappy)
#表压缩配置
collectionConfig:
blockCompressor:zlib (默认snappy,还可选none、zlib)
#索引配置
indexConfig:
prefixCompression:true
4. WiredTiger存储引擎优势
-
文档空间分配方式
:WiredTiger
使用的是BTree存储,MMAPV1
线性存储 需要Padding -
并发级别
:WiredTiger
文档级别锁(行锁) ,·MMAPV1·引擎使用表级锁 -
数据压缩
:snappy (默认) 和 zlib ,相比MMAPV1(无压缩) 空间节省数倍。 -
内存使用
:WiredTiger 可以指定内存的使用大小。 -
Cache
:使用 WT引擎使用了二阶缓存WiredTiger Cache, File System Cache来保证Disk上的数据的最终一 致性。而MMAPv1 只有journal 日志。
5. WiredTiger引擎包含的文件和作用
-
WiredTiger.basecfg
: 存储基本配置信息,与 ConfigServer有关系 -
WiredTiger.lock
: 定义锁操作 -
table*.wt
: 存储各张表的数据 -
WiredTiger.wt
: 存储table* 的元数据 -
WiredTiger.turtle
: 存储WiredTiger.wt的元数据 -
journal
: 存储WAL(Write Ahead Log)
6.WiredTiger存储引擎实现原理
1. 写请求
- WiredTiger的写操作会默认写入 Cache ,并持久化到
WAL (Write Ahead Log:前置写日志)
,每60s或Log文件达到2G做一次 checkpoint (当然我们也可以通过在写入时传入 j: true 的参数强制 journal 文件的同步 ,writeConcern { w: , j: , wtimeout: }) 产生快照文件 WiredTiger
初始化时,恢复至最新的快照状态,然后再根据WAL恢复数据,保证数据的完整性。
2.由上图可知:
-
Transactions
:是增删改操作,将数据写进Cache
中,并同时将数据持久化到WAL - 每60s或Log文件达到2G做一次checkpoint (检查点),也就是做一个节点,会产生Snapshosts(快照文件),当然我们也可以通过在写入时将
writeConcern { w: , j: , wtimeout: })
中的j: true
的参数传入
3.checkpoint流程
- 对所有的table进行一次checkpoint,每个table的checkpoint的元数据更新至WiredTiger.wt
- 对WiredTiger.wt进行checkpoint,将该table checkpoint的元数据更新至临时文件 WiredTiger.turtle.set
- 将WiredTiger.turtle.set重命名为WiredTiger.turtle。
- 上述过程如果中间失败,WiredTiger在下次连接初始化时,首先将数据恢复至最新的快照状态,然后根 据WAL恢复数据,以保证存储可靠性。
4.Journaling
- 在数据库宕机时 , 为保证 MongoDB 中数据的持久性,MongoDB 使用了 Write Ahead Logging 向磁盘上的 journal 文件预先进行写入。
- 除了 journal 日志,MongoDB 还使用检查点(checkpoint)来保证数据的一致性,当数据库发生宕机时,我们就需要
checkpoint
和journal
文件协作完成数据的恢复工作。
- 在数据文件中查找上一个检查点的标识符
- 在 journal 文件中查找标识符对应的记录
- 重做对应记录之后的全部操作