如果 nscanned(扫描的记录数)远大于 nreturned(返回结果的记录数)的话,那么我们就要考虑通过加索引来优化记录定位了。reslen 如果过大,那么说明我们返回的结果集太大了,这时请查看 find 函数的第二个参数是否只写上了你需要的属性名。对于创建索引的建议是:如果很少读,那么尽量不要添加索引,因为索引越多,写操作会越慢。如果读量很大,那么创建索引还是比较划算的。

假设我们按照时间戳查询最近发表的 10 篇博客文章:

articles = db.posts.find().sort({ts:-1});
for (var i=0; i< 10; i++) {
print(articles[i].getSummary());
}

1、优化方案 1: 创建索引

在查询条件的字段上,或者排序条件的字段上创建索引,可以显著提高执行效率:

db.posts.ensureIndex({ts:1});

2、优化方案 2: 限定返回结果条数

使用 limit()限定返回结果集的大小,可以减少 database server 的资源消耗,可以减少网络传输数据量。

articles = db.posts.find().sort({ts:-1}).limit(10);

3、优化方案 3: 只查询使用到的字段,而不查询所有字段

在本例中,博客日志记录内容可能非常大,而且还包括了评论内容(作为 embeded 文档)。所以只查询使用的字段,比查询所有字段效率更高:

articles = db.posts.find({}, {ts:1,title:1,author:1,abstract:1}).sort({ts:-1}).limit(10);

注意:如果只查询部分字段的话,不能用返回的对象直接更新数据库。下面的代码是错误的:


a_post = db.posts.findOne({}, Post.summaryFields);
a_post.x = 3;
db.posts.save(a_post);

4、优化方案 4: 采用 capped collection

capped Collections 比普通 Collections 的读写效率高。Capped Collections 是高效率的 Collection类型,它有如下特点:

1) 固定大小; Capped Collections 必须事先创建,并设置大小:

db.createCollection("mycoll", {capped:true, size:100000})

2) Capped Collections 可以 insert 和 update 操作;不能 delete 操作。只能用 drop() 方法删除整个 Collection。

3) 默认基于 Insert 的次序排序的。如果查询时没有排序,则总是按照 insert 的顺序返回。

4) FIFO。如果超过了 Collection 的限定大小,则用 FIFO 算法,新记录将替代最先 insert 的记录。

5、优化方案 5: 采用 Server Side Code Execution

Server-Side Processing 类似于 SQL 数据库的存储过程,使用 Server-Side Processing 可以减小网络通讯的开销。

6、优化方案 6: Hint

一般情况下 MongoDB query optimizer 都工作良好,但有些情况下使用 hint()可以提高操作效率。 Hint 可以强制要求查询操作使用某个索引。例如,如果要查询多个字段的值,如果在其中一个字段上有索引,可以使用 hint:

db.collection.find({user:u, foo:d}).hint({user:1});

7、优化方案 7: 采用 Profiling

Profiling 功能肯定是会影响效率的,但是不太严重,原因是他使用的是 system.profile 来记录,而 system.profile 是一个 capped collection 这种 collection 在操作上有一些限制和特点,但是效率更高。