在介绍字典的底层结构时我们看到,当已使用的 entry 数量达到总容量的 2/3 时,会发生扩容。
而在早期,哈希表只使用一个键值对数组,这个键值对数组不仅要存储具体的 entry,还要承载哈希索引数组的功能。本来这个方式很简单,但是内存浪费严重,于是后面 Python 官方就将一个数组拆成两个数组来实现。
不是说只能用 2/3 吗?那就只给键值对数组申请 2/3 容量的空间,并且只负责存储键值对。至于索引,则由哈希索引数组来体现。通过将 key 映射成索引,找到指定的哈希槽,再根据槽里面存储的索引,找到键值对数组中存储的 entry。
因此减少内存开销的核心就在于,避免键值对数组的浪费。
所以哈希索引数组的长度就可以看成是哈希表的容量,而键值对数组的长度本身就是哈希索引数组的 2/3、或者说容量的 2/3。那么很明显,当键值对数组满了,就说明当前的哈希表要扩容了。
// Objects/dictobject.c
#define GROWTH_RATE(d) ((d)->ma_used*3)
扩容之后的新哈希表的容量要大于等于 ma_used * 3,注意:是大于等于 ma_used * 3,不是 dk_nentries * 3。因为 dk_nentries 还包含了被删除的 entry,但哈希表在扩容的时候会将其丢弃,所以扩容之后新哈希表的容量取决于 ma_used。
当然啦,哈希表的容量还要等于 2 的幂次方,所以有两个条件:
大于等于 ma_used * 3;
等于 2 的幂次方;
基于以上两个限制条件,取到的最小值便是扩容之后的容量。为此 Python 底层专门提供了一个 calculate_log2_keysize 函数,看一下它的逻辑。
// Objects/dictobject.c
static inline uint8_t
calculate_log2_keysize(Py_ssize_t minsize)
{
// 参数 minsize 表示字典的 ma_used * 3,即长度 * 3
// 1 << log2_size 便是扩容之后的字典的容量
uint8_t log2_size;
// PyDict_LOG_MINSIZE 是一个宏,值为 3,所以字典的最小容量是 8
// 如果 (1 << log2_size) < minsize,那么不断循环
// 直到条件不满足时,便找到了大于等于 minsize 的最小 2 的幂次方数
for (log2_size = PyDict_LOG_MINSIZE;
(((Py_ssize_t)1) << log2_size) < minsize;
log2_size++)
;
return log2_size;
}
只不过返回的不是扩容之后的字典的容量,而是以 2 为底、容量的对数。
然后我们来看看扩容对应的具体逻辑。
// Objects/dictobject.c
static int
insertion_resize(PyInterpreterState *interp, PyDictObject *mp, int unicode)
{
// 当字典添加 entry 却发现容量不够时,会调用 insertion_resize 函数
// 该函数内部会调用 dictresize 函数,传递的参数的含义如下:
/*
* 参数一:进程状态对象
* 参数二:字典
* 参数三:扩容之后的字典的容量的对数
* 参数四:是否是 unicode table,即字典的 key 是否都是字符串
*/
return dictresize(interp, mp,
calculate_log2_keysize(GROWTH_RATE(mp)), unicode);
}
所以核心在于 dictresize 函数,但这个函数比较长,在看它的内部实现之前,先来回顾一下基础知识。
以上是字典的底层结构,假设变量 mp 指向了 PyDictObject 实例,那么可以得到如下信息。
mp->ma_keys->dk_indices 便是哈希索引数组,它的长度便是哈希表的容量。
mp->ma_keys->dk_entries 便是键值对数组,里面的一个 entry 就是一个键值对。
如果字典使用的是结合表,那么 entry 的 me_key、me_value 字段负责存储键和值,此时 mp->ma_values 为 NULL。
如果字典使用的是分离表,那么 entry 的 me_key 字段负责存储键,me_value 字段则始终为 NULL,此时由 mp->ma_values 负责存储值,这种做法可以让多个字典共享一组 key,从而节省内存。
因为分离表是 Python 针对实例对象的属性字典单独设计的,我们平时创建的都是结合表,所以一开始并没有讨论分离表。但分离表其实非常简单,这里来补充一下吧,我们看一下 ma_values 是怎么定义的。
// Include/dictobject.h
typedef struct _dictvalues PyDictValues;
// Include/internal/pycore_dict.h
struct _dictvalues {
PyObject *values[1];
};
结构非常简单,就是维护了一个数组,保存所有的 value。另外我们发现字段 values 是一个数组,而不是指向数组首元素的二级指针,这就说明使用分离表的字典的容量是固定的,如果要扩容,那么结构会发生改变,分离表会重构为结合表。
现在假设有一个字典,里面有三个键值对 "a": 1, "b": 2, "c": 3,我们看一下分别使用结合表和分离表存储时,字典的结构是什么样子。
结合表:
分离表:
所以结合表是键和值存在一起,分离表是键和值分开存储,非常好理解。我们自己创建的字典,使用的都是结合表,分离表是为了减少对象属性字典的内存使用而专门引入的。
然后是字典(哈希表)的三种形式:
Unicode split table:分离表,key 全部是字符串。
Unicode combined table:结合表,key 全部是字符串。
Generic combined table:结合表,key 的类型没有限制。
所以对于一个分离表而言,它的 key 一定都是字符串,否则不可能是分离表。而如果 key 都是字符串,那么既可以是分离表,也可以是结合表。
但如果不满足 key 都是字符串,或者说 key 没有类型限制,那么一定是结合表。所以 Generic combined table 里面的 combined 可以省略,因为当 key 的类型是 Generic 时,哈希表一定是 combined。
接着是转换关系:
split 可以转成 combined,但反过来不行。
unicode 可以转成 generic,但反过来不行。
好,最后我们看一下 dictresize 函数。
// Objects/dictobject.c
static int
dictresize(PyInterpreterState *interp, PyDictObject *mp,
uint8_t log2_newsize, int unicode)
{
// mp->ma_keys
PyDictKeysObject *oldkeys;
// mp->ma_values
PyDictValues *oldvalues;
// log2_newsize 是扩容之后的字典的容量的对数
// 它是由 insertion_resize 函数传过来的
// SIZEOF_SIZE_T 是一个宏,在 64 位机器上等于 8
// 所以 log2_newsize 不能超过 64,即字典的容量不能达到 2 ** 64
if (log2_newsize >= SIZEOF_SIZE_T*8) {
PyErr_NoMemory(); // 否则抛出 MemoryError
return -1;
}
assert(log2_newsize >= PyDict_LOG_MINSIZE);
oldkeys = mp->ma_keys;
oldvalues = mp->ma_values;
// 如果 !(dk->dk_kind != DICT_KEYS_GENERAL),说明字典之前是 Generic table
// 而一个 Generic table 不可能变成 Unicode table,所以将 unicode 设置为 0
if (!DK_IS_UNICODE(oldkeys)) {
unicode = 0;
}
// 在介绍字典的创建时,我们说过这个函数,它负责为 PyDictKeysObject 实例申请内存
mp->ma_keys = new_keys_object(interp, log2_newsize, unicode);
if (mp->ma_keys == NULL) {
mp->ma_keys = oldkeys;
return -1;
}
assert(mp->ma_keys->dk_usable >= mp->ma_used);
// 字典的长度
Py_ssize_t numentries = mp->ma_used;
// 如果 oldvalues 不为 NULL,说明字典使用的是分离表
// 那么当字典发生扩容时,要转成结合表
if (oldvalues != NULL) {
// oldentries,一个 entry 16 字节
PyDictUnicodeEntry *oldentries = DK_UNICODE_ENTRIES(oldkeys);
// split -> Generic combined
if (mp->ma_keys->dk_kind == DICT_KEYS_GENERAL) {
// newentries,一个 entry 24 字节
PyDictKeyEntry *newentries = DK_ENTRIES(mp->ma_keys);
for (Py_ssize_t i = 0; i < numentries; i++) {
int index = get_index_from_order(mp, i);
PyDictUnicodeEntry *ep = &oldentries[index];
assert(oldvalues->values[index] != NULL);
// key 始终存储在 entry 中
newentries[i].me_key = Py_NewRef(ep->me_key);
// 设置哈希值
newentries[i].me_hash = unicode_get_hash(ep->me_key);
// 将 mp->ma_values 里面的值,赋值给 entry->me_value
newentries[i].me_value = oldvalues->values[index];
}
// 因为扩容了,所以遍历键值对数组,依次对里面的 key 进行索引映射
// 找到指定的哈希槽,让其保存 key 对应的 entry 在键值对数组中的索引
// 因此这一步就是在重新构建哈希索引数组
build_indices_generic(mp->ma_keys, newentries, numentries);
}
// split -> Unicode combined
else {
// 代码和上面是一样的,唯一的区别就是这里 entry 的类型和之前是一样的
// 因为重构前后都是 Unicode table,所以 entry 的类型不变
PyDictUnicodeEntry *newentries = DK_UNICODE_ENTRIES(mp->ma_keys);
for (Py_ssize_t i = 0; i < numentries; i++) {
int index = get_index_from_order(mp, i);
PyDictUnicodeEntry *ep = &oldentries[index];
assert(oldvalues->values[index] != NULL);
newentries[i].me_key = Py_NewRef(ep->me_key);
newentries[i].me_value = oldvalues->values[index];
}
build_indices_unicode(mp->ma_keys, newentries, numentries);
}
dictkeys_decref(interp, oldkeys);
// 释放 ma_values
mp->ma_values = NULL;
free_values(oldvalues);
}
// 说明字典使用的是结合表,重构的结果依旧是结合表
else {
// Generic -> Generic
if (oldkeys->dk_kind == DICT_KEYS_GENERAL) {
assert(mp->ma_keys->dk_kind == DICT_KEYS_GENERAL);
PyDictKeyEntry *oldentries = DK_ENTRIES(oldkeys);
PyDictKeyEntry *newentries = DK_ENTRIES(mp->ma_keys);
// 如果 entry 的数量等于字典的长度,说明没有被删除的 entry
// 那么直接 memcpy 过去即可
if (oldkeys->dk_nentries == numentries) {
memcpy(newentries, oldentries,
numentries * sizeof(PyDictKeyEntry));
}
// 否则要遍历 oldentries,将 me_value != NULL 的 entry 拷贝过去
else {
PyDictKeyEntry *ep = oldentries;
for (Py_ssize_t i = 0; i < numentries; i++) {
while (ep->me_value == NULL)
ep++;
newentries[i] = *ep++;
}
}
// 重构哈希索引数组
build_indices_generic(mp->ma_keys, newentries, numentries);
}
else {
PyDictUnicodeEntry *oldentries = DK_UNICODE_ENTRIES(oldkeys);
// Unicode combined -> Unicode combined
if (unicode) {
// 逻辑和上面类似,如果不存在被删除的 entry,那么直接拷贝
// 否则的话,依次遍历,获取 me_value 不为 NULL 的 entry
PyDictUnicodeEntry *newentries = DK_UNICODE_ENTRIES(mp->ma_keys);
if (oldkeys->dk_nentries == numentries &&
mp->ma_keys->dk_kind == DICT_KEYS_UNICODE) {
memcpy(newentries, oldentries,
numentries * sizeof(PyDictUnicodeEntry));
}
else {
PyDictUnicodeEntry *ep = oldentries;
for (Py_ssize_t i = 0; i < numentries; i++) {
while (ep->me_value == NULL)
ep++;
newentries[i] = *ep++;
}
}
build_indices_unicode(mp->ma_keys, newentries, numentries);
}
// Unicode combined -> Generic combined
else {
// 因为前后 entry 的大小不一样,一个 16 字节,一个 24 字节
// 所以只能遍历,然后重新给字段赋值
PyDictKeyEntry *newentries = DK_ENTRIES(mp->ma_keys);
PyDictUnicodeEntry *ep = oldentries;
for (Py_ssize_t i = 0; i < numentries; i++) {
while (ep->me_value == NULL)
ep++;
newentries[i].me_key = ep->me_key;
newentries[i].me_hash = unicode_get_hash(ep->me_key);
newentries[i].me_value = ep->me_value;
ep++;
}
build_indices_generic(mp->ma_keys, newentries, numentries);
}
}
// Py_EMPTY_KEYS 是静态定义好的,永远存在
// 如果 oldkeys != Py_EMPTY_KEYS,那么要释放掉
if (oldkeys != Py_EMPTY_KEYS) {
assert(oldkeys->dk_kind != DICT_KEYS_SPLIT);
assert(oldkeys->dk_refcnt == 1);
// 以下是缓存池操作,我们下一篇文章细说
#if PyDict_MAXFREELIST > 0
struct _Py_dict_state *state = get_dict_state(interp);
if (DK_LOG_SIZE(oldkeys) == PyDict_LOG_MINSIZE &&
DK_IS_UNICODE(oldkeys) &&
state->keys_numfree < PyDict_MAXFREELIST)
{
state->keys_free_list[state->keys_numfree++] = oldkeys;
OBJECT_STAT_INC(to_freelist);
}
else
#endif
{
PyObject_Free(oldkeys);
}
}
}
// dk_usable 表示还可以容纳多少个键值对
// dk_nentries 表示已经容纳了多少个键值对
// 而 numentries 表示字典的长度,所以重构之后
// dk_usable 的大小要减去 numentries,dk_nentries 直接等于 numentries
mp->ma_keys->dk_usable -= numentries;
mp->ma_keys->dk_nentries = numentries;
ASSERT_CONSISTENT(mp);
return 0;
}
因为要对哈希表的种类分情况讨论,所以导致代码有点长,但逻辑不难理解:
首先确定哈希表的容量,它要满足 2 的幂次方,并且大于等于 ma_used * 3。
为 ma_keys 重新申请内存。
根据哈希表的种类分情况讨论,但核心都是将老的没有被删除的 entry 搬过去。
释放 ma_keys,如果字典之前是分离表,还要释放 ma_values。
以上就是哈希表的扩容,或者说字典的扩容,我们就介绍到这儿,下一篇文章来介绍字典的缓存池。