字典,又称为符号表(symbol table)、关联数组(associative array)或映射(map),是一种用于保存键值对(key-value pair)的抽象数据结构,字典中的每个键都是独一无二的,程序可以在字典中根据键查找与之关联的值,或者通过键来更新值,又或者根据键来删除整个键值对
- Redis数据库就是一个字典模型,key和value组成
- 同时hash对象的底层实现之一也包括字典
总而言之,字典有较为广泛的用途,但是同链表一样,C语言没有字典这种数据结构,所以Redis自己实现了这种结构。
字典的数据结构
字典是由哈希表加上一系列属性方法组成,而哈希表又是由哈希表节点加上一系列哈希表结构组成的
哈希表节点
哈希表节点使用dictEntry结构表示,每个dictEntry结构都保存着一个键值对,但是有链式结构:
typedef struct dictEntry {
// 键
void *key;
// 值
union {
void *val;
uint64_t u64;
int64_t s64;
} v;
// 指向下个哈希表节点,形成链表
struct dictEntry *next;
} dictEntry;
各个属性部分如下:
- key属性保存着键值对中的键
- v属性则保存着键值对中的值,其中键值对的值可以是一个指针,或者是一个uint64_t整数,又或者是一个int64_t整数。
- next属性是指向另一个哈希表节点的指针,这个指针可以将多个哈希值相同的键值对连接在一次,以此来解决键冲突(collision)的问题
也就是说在相同键上的多个哈希表节点存在链式关系,有链表实现。
哈希表
哈希表结构定义如下,包括哈希表数组,哈希表大小【已用+未用】的变量,哈希表大小的掩码值,哈希表已有节点数量
typedef struct dictht {
// 哈希表数组
dictEntry **table;
// 哈希表大小
unsigned long size;
// 哈希表大小掩码,用于计算索引值,总是等于 size - 1
unsigned long sizemask;
// 该哈希表已有节点的数量
unsigned long used;
} dictht;
各个属性部分如下:
- table属性是一个数组,数组中的每个元素都是一个指向dict.h/dictEntry结构的指针,每个dictEntry结构保存着一个键值对
- size属性记录了哈希表的大小,也即是table数组的大小
- used属性则记录了哈希表目前已有节点(键值对)的数量
- sizemask属性的值总是等于size-1,这个属性和哈希值一起决定一个键应该被放到table数组的哪个索引上面
其中table是我们这个结构的核心。
字典
字典又是由哈希表和一系列属性和函数组成的,为了满足Redis快而增加的一些空间占用属性:
typedef struct dict {
// 类型特定函数
dictType *type;
// 私有数据
void *privdata;
// 哈希表
dictht ht[2];
// rehash 索引,当 rehash 不再进行时,值为 -1
int rehashidx; /* rehashing not in progress if rehashidx == -1 */
} dict;
各个属性含义如下:
- type属性和privdata属性是针对不同类型的键值对,而创建多态字典而设置的:type属性是一个指向dictType结构的指针,每个dictType结构保存了一组用于操作特定类型键值对的函数,Redis会为用途不同的字典设置不同类型的特定函数。而privadata属性则保存了需要传给那些类型特定函数的可选参数。
- ht属性是一个包含了两个项的数组,数组中每个项都是一个dictht哈希表,一般情况下,字典只使用ht[0]哈希表,而ht[1]哈希表只对ht[0]哈希表进行rehash时使用。
- rehashidx属性,与rehash相关,它积累了rehash目前的进度,如果没有进行rehash,则它的值为-1
关于rehash算法在接下来的内容重点看,其中ht属性是较为核心的属性。
哈希算法
当要将一个新的键值对添加到字典里面时,程序需要先根据键值对的键计算出哈希值和索引值,然后再根据索引值,将包含新键值对的哈希表节点放到哈希表数组的指定索引上面:
- 使用字典设置的哈希函数,计算键 key 的哈希值hash = dict->type->hashFunction(key);
- 使用哈希表的 sizemask 属性和哈希值,计算出索引值,index = hash & dict->ht[x].sizemask,根据情况不同, ht[x] 可以是 ht[0] 或者 ht[1],
举个例子,假设hash计算结果为8,且掩码为3,则相与的结果为0,所以被放到ht[0]哈希表的字典索引0的位置
解决键冲突
当有两个或以上数量的键被分配到了哈希表数组的同一个索引上面时,我们称这些键发生了冲突(collision)。Redis的哈希表使用链地址法(separate chaining)来解决键冲突,每个哈希表节点都有一个next指针,多个哈希表节点可以用next指针构成一个单向链表,被分配到同一个索引上的多个节点可以用这个单向链表连接起来,这就解决了键冲突的问题:
另外因为dictEntry节点组成的链表没有指向链表表尾的指针,为了考虑速度,程序总是将新节点添加到链表的表头位置(这样添加节点的时间复杂度为O(1))
rehash
随着操作的不断进行,哈希表保存的键值对会逐渐增多或减少,为了让**哈希表负载因子【哈希表已保存节点数量/哈希表的size,可以理解为used/size】**维持在一个合理范围之内,当哈希表保存的键值对太多或太少时,程序要对哈希表的大小进行相应的扩展或收缩。
Redis对字典的哈希表执行rehash的步骤如下:
- 为字典的ht[1]哈希表分配空间,这个空间大小取决于要执行的操作
- 如果执行扩展操作,则ht[1]的大小为第一个大于等于等于ht[0].used*2的2^n;
- 如果执行收缩操作,则ht[1]的大小为第一个大于等于ht[0].used的2^n;当哈希表负载因子小于0.1时,程序自动开始对哈希表执行收缩操作
- 将保存在ht[0]中的所有键值对rehash到ht[1]上面:rehash指的是重新计算键的哈希值和索引值,然后将键值对放置到ht[1]的指定位置上。
- 当ht[0]包含的所有键值对都迁移到ht[1]之后,释放ht[0],将ht[1]设置为ht[0],并在ht[1]新创建一个空白哈希表,为下一次rehash做准备。
以上就是rehash的全流程。当以下条件中的任意一个被满足时,程序会自动开始对哈希表执行扩展操作:
- 1)服务器目前没有在执行BGSAVE命令或者BGREWRITEAOF命令,并且哈希表的负载因子大于等于1
- 2)服务器目前正在执行BGSAVE命令或者BGREWRITEAOF命令,并且哈希表的负载因子大于等于5。
BGSAVE或BGREWRITEAOF操作在之前的blog提到过【Redis从入门到放弃系列 九】Redis持久化策略,是Redis的持久化操作,在执行BGSAVE命令或BGREWRITEAOF命令的过程中,Redis需要创建当前服务器进程的子进程,而大多数操作系统都采用写时复制(copy-on-write)【只有进程空间的各段的内容要发生变化时,才会将父进程的内容复制一份给子进程】技术来优化子进程的使用效率,所以在子进程存在期间,服务器会提高执行扩展操作所需的负载因子,从而尽可能地避免在子进程存在期间进行哈希表扩展操作,这可以避免不必要的内存写入操作,最大限度地节约内存。
渐进式rehash
Redis中的rehash动作并不是一次性、集中式完成的,而是分多次、渐进式的完成的。这样做的目的是,如果服务器中包含很多键值对,要一次性的将这些键值对全部rehash到ht[1]的话,庞大的计算量可能导致服务器在一段时间内停止服务。渐进式Rehash操作
- 为ht[1]分配空间,让字典同时持有ht[0]和ht[1]两个哈希表。在字典中维持一个索引计数器变量rehashidx,并将它置为0,表示rehash工作开始。
- 在rehash进行期间,每次对字典执行添加、删除、查找或者更新操作时,程序除了执行指定操作以外,还会顺带将ht[0]哈希表在rehashidx索引上的所有键值对rehash到ht[1]中,当rehash工作完成之后,程序将rehashidx属性的值+1。
- 随着字典操作的不断进行,最终在某个时间点上,ht[0]的所有键值对都被rehash到ht[1]上,这时将rehashidx属性设为-1,表示rehash完成。
渐进式rehash的好处在于其采取分而治之的方式,将rehash键值对所需要的计算工作均摊到字典的每个添加、删除、查找和更新操作上,从而避免了集中式rehash而带来的庞大计算量:
- 字典的删除(delete)、查找(find)、更新(update)等操作会在两个哈希表上进行。例如,要在字典里面查找一个键的话,程序会先在ht[0]里面进行查找,如果没找到的话,就会继续到ht[1]里面进行查找,诸如此类。
- 在渐进式rehash执行期间,新添加到字典的键值对一律会被保存到ht[1]里面,而ht[0]则不再进行任何添加操作,这一措施保证了ht[0]包含的键值对数量会只减不增,并随着rehash操作的执行而最终变成空表
这样又是一个以空间换取时间的案例。参考《Redis的设计与实现》
字典的常用API
字典的大多数操作也都是O(1)的。