HashMap的死循环问题是在 jdk1.7 (及之前)的时候产生的。
当时版本的 HashMap 使用链表 + 头插法来解决hash冲突,但在多线程并发的环境下会产生 node间死循环。

Rehash

首先我们要对 hashmap 的扩容机制有一些了解,关于详细的扩容机制之后再补充。现在我们只需要关注当 put 元素进map时,size大于map的阈值的情况:

public V put(K key, V value)
{
    ......
    //算Hash值
    int hash = hash(key.hashCode());
    int i = indexFor(hash, table.length);
    //如果该key已被插入,则替换掉旧的value (链接操作)
    for (Entry<K,V> e = table[i]; e != null; e = e.next) {
        Object k;
        if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
            V oldValue = e.value;
            e.value = value;
            e.recordAccess(this);
            return oldValue;
        }
    }
    modCount++;
    // 上面可以忽略
    //该key不存在,需要增加一个结点
    addEntry(hash, key, value, i);
    return null;
}
void addEntry(int hash, K key, V value, int bucketIndex)
{
    Entry<K,V> e = table[bucketIndex];
    table[bucketIndex] = new Entry<K,V>(hash, key, value, e);
    //查看当前的size是否超过了我们设定的阈值threshold,如果超过,需要resize
    if (size++ >= threshold)
        resize(2 * table.length);
}
void resize(int newCapacity)
{
    Entry[] oldTable = table;
    int oldCapacity = oldTable.length;
    ......
    //创建一个新的Hash Table
    Entry[] newTable = new Entry[newCapacity];
    //将Old Hash Table上的数据迁移到New Hash Table上
    transfer(newTable);
    table = newTable;
    threshold = (int)(newCapacity * loadFactor);
}

当map的size大于阈值的时候,我们需要对 hashmap 进行扩容,即我们需要建立一个新的map,并将原本map中的所有元素都迁移到新map中,由于新的map是比之前大的,所以我们也需要对之前的每个元素进行重新的hash计算,也就是rehash(大小不同肯定要重新计算):

void transfer(Entry[] newTable)
{
    Entry[] src = table;
    int newCapacity = newTable.length;
    //下面这段代码的意思是:
    //  从OldTable里摘一个元素出来,然后放到NewTable中
    for (int j = 0; j < src.length; j++) {
        Entry<K,V> e = src[j];
        if (e != null) {
            src[j] = null;
            do {
                // 将原本的元素使用头插法插到新表中对应位置的链表
                Entry<K,V> next = e.next;
                int i = indexFor(e.hash, newCapacity);
                e.next = newTable[i];
                newTable[i] = e;
                e = next;
            } while (e != null);
        }
    }
}

比如我们将原本的表扩容成 4 :

死循环会导致什么问题 java_哈希算法

多线程并发下的 rehash

同上一个例子,但是现在有两个线程都要对下面的原表扩容成 4 的新表:

死循环会导致什么问题 java_ci_02

(将resize的关键代码放在这)

void transfer(Entry[] newTable)
{
    Entry[] src = table;
    int newCapacity = newTable.length;
    //下面这段代码的意思是:
    //  从OldTable里摘一个元素出来,然后放到NewTable中
    for (int j = 0; j < src.length; j++) {
        Entry<K,V> e = src[j];
        if (e != null) {
            src[j] = null;
            do {
                // 将原本的元素使用头插法插到新表中对应位置的链表
                Entry<K,V> next = e.next;
                int i = indexFor(e.hash, newCapacity);
                e.next = newTable[i];
                newTable[i] = e;
                e = next;
            } while (e != null);
        }
    }
}

首先,线程一先执行到了 13 行,这时被线程2抢占了cpu(hashmap是线程不安全的),也就是执行权到了线程2了(其实这时线程1还没做啥实际性工作),线程2咔咔就执行完了,就已经得到了一个新表了:

死循环会导致什么问题 java_哈希算法_03


线程2执行完后,执行权又回到了线程1这,线程1现在的状态是(也就是被抢占前的执行状态):

死循环会导致什么问题 java_ci_04


即 e 指向了 key=3的节点,e.next 指向了 key=7的节点。

线程 1 继续往下执行:

(1)14行:在新表的位置是 i=3

(2)15-16行:头插法将 key=3 的节点插入到了新表中,注意!只是指向了 key=3这一个节点哦!

(3)现在轮到 e 指向 key=7的节点,因为在被抢占前 e.next 就已经指向 key=7的节点了

死循环会导致什么问题 java_散列表_05


现在 e 指向了 key=7的节点,代码继续执行:

(1)13行:next 指向 key=3 的节点!因为线程2已经将新表建好了,在新表中 7 节点的next是 3 节点

(2)14行:i 还是等于3

(3)15-16行:将 7节点插入到线程1建的新表的 i=3位置上,注意现在在线程1的新表中i=3的位置上是:7 -> 3 -> null,所以现在的 newTable[3] = 7节点

(4)17行:e = next,所以这时 e又指向了 3节点

死循环会导致什么问题 java_java_06


现在 e 指向了 key=3的节点,代码继续执行:

(1)13行:next = null

(2)14行:i 还是等于 3

(3)15行: e.next = newTable[3],所以 3 节点指向了 7 节点,这时循环链接出现了(因为在上一阶段,7 -> 3)

(4)… (后面就不说了。。)

死循环会导致什么问题 java_ci_07

总结

由于hashmap的扩容会需要对原表元素进行rehash,但是在多线程并发的情况下,jdk7的链表 + 头插法的做法,会使得在新表建立的过程中会可能出现节点间出现循环链接的现象。这个就是 hashmap的死循环问题。

解决办法

使用 ConcurrentHashMap!
其他: HashTable、Collections.synchronizedHashMap<>()

参考

疫苗:JAVA HASHMAP的死循环