HashMap的死循环问题是在 jdk1.7 (及之前)的时候产生的。
当时版本的 HashMap 使用链表 + 头插法来解决hash冲突,但在多线程并发的环境下会产生 node间死循环。
Rehash
首先我们要对 hashmap 的扩容机制有一些了解,关于详细的扩容机制之后再补充。现在我们只需要关注当 put 元素进map时,size大于map的阈值的情况:
public V put(K key, V value)
{
......
//算Hash值
int hash = hash(key.hashCode());
int i = indexFor(hash, table.length);
//如果该key已被插入,则替换掉旧的value (链接操作)
for (Entry<K,V> e = table[i]; e != null; e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
// 上面可以忽略
//该key不存在,需要增加一个结点
addEntry(hash, key, value, i);
return null;
}
void addEntry(int hash, K key, V value, int bucketIndex)
{
Entry<K,V> e = table[bucketIndex];
table[bucketIndex] = new Entry<K,V>(hash, key, value, e);
//查看当前的size是否超过了我们设定的阈值threshold,如果超过,需要resize
if (size++ >= threshold)
resize(2 * table.length);
}
void resize(int newCapacity)
{
Entry[] oldTable = table;
int oldCapacity = oldTable.length;
......
//创建一个新的Hash Table
Entry[] newTable = new Entry[newCapacity];
//将Old Hash Table上的数据迁移到New Hash Table上
transfer(newTable);
table = newTable;
threshold = (int)(newCapacity * loadFactor);
}
当map的size大于阈值的时候,我们需要对 hashmap 进行扩容,即我们需要建立一个新的map,并将原本map中的所有元素都迁移到新map中,由于新的map是比之前大的,所以我们也需要对之前的每个元素进行重新的hash计算,也就是rehash(大小不同肯定要重新计算):
void transfer(Entry[] newTable)
{
Entry[] src = table;
int newCapacity = newTable.length;
//下面这段代码的意思是:
// 从OldTable里摘一个元素出来,然后放到NewTable中
for (int j = 0; j < src.length; j++) {
Entry<K,V> e = src[j];
if (e != null) {
src[j] = null;
do {
// 将原本的元素使用头插法插到新表中对应位置的链表
Entry<K,V> next = e.next;
int i = indexFor(e.hash, newCapacity);
e.next = newTable[i];
newTable[i] = e;
e = next;
} while (e != null);
}
}
}
比如我们将原本的表扩容成 4 :
多线程并发下的 rehash
同上一个例子,但是现在有两个线程都要对下面的原表扩容成 4 的新表:
(将resize的关键代码放在这)
void transfer(Entry[] newTable)
{
Entry[] src = table;
int newCapacity = newTable.length;
//下面这段代码的意思是:
// 从OldTable里摘一个元素出来,然后放到NewTable中
for (int j = 0; j < src.length; j++) {
Entry<K,V> e = src[j];
if (e != null) {
src[j] = null;
do {
// 将原本的元素使用头插法插到新表中对应位置的链表
Entry<K,V> next = e.next;
int i = indexFor(e.hash, newCapacity);
e.next = newTable[i];
newTable[i] = e;
e = next;
} while (e != null);
}
}
}
首先,线程一先执行到了 13 行,这时被线程2抢占了cpu(hashmap是线程不安全的),也就是执行权到了线程2了(其实这时线程1还没做啥实际性工作),线程2咔咔就执行完了,就已经得到了一个新表了:
线程2执行完后,执行权又回到了线程1这,线程1现在的状态是(也就是被抢占前的执行状态):
即 e 指向了 key=3的节点,e.next 指向了 key=7的节点。
线程 1 继续往下执行:
(1)14行:在新表的位置是 i=3
(2)15-16行:头插法将 key=3 的节点插入到了新表中,注意!只是指向了 key=3这一个节点哦!
(3)现在轮到 e 指向 key=7的节点,因为在被抢占前 e.next 就已经指向 key=7的节点了
现在 e 指向了 key=7的节点,代码继续执行:
(1)13行:next 指向 key=3 的节点!因为线程2已经将新表建好了,在新表中 7 节点的next是 3 节点
(2)14行:i 还是等于3
(3)15-16行:将 7节点插入到线程1建的新表的 i=3位置上,注意现在在线程1的新表中i=3的位置上是:7 -> 3 -> null,所以现在的 newTable[3] = 7节点
(4)17行:e = next,所以这时 e又指向了 3节点
现在 e 指向了 key=3的节点,代码继续执行:
(1)13行:next = null
(2)14行:i 还是等于 3
(3)15行: e.next = newTable[3],所以 3 节点指向了 7 节点,这时循环链接出现了(因为在上一阶段,7 -> 3)
(4)… (后面就不说了。。)
总结
由于hashmap的扩容会需要对原表元素进行rehash,但是在多线程并发的情况下,jdk7的链表 + 头插法的做法,会使得在新表建立的过程中会可能出现节点间出现循环链接的现象。这个就是 hashmap的死循环问题。
解决办法
使用 ConcurrentHashMap!
其他: HashTable、Collections.synchronizedHashMap<>()
参考
疫苗:JAVA HASHMAP的死循环