文章目录



一、简介


优先推荐使用​​ConcurrentHashMap​

​HashMap​​存在 死链问题扩容数据丢失问题

JDK7下,这两个问题均存在
JDK8之后,仍然存在扩容数据丢失问题

哈希类集合的三个基本存储概念,如图:

【Java】之 HashMap浅析_数据丢失

【Java】之 HashMap浅析_HashMap_02

哈希碰撞的概率取决与 hashCode计算方式 和 空间容量

碰撞后,采用拉链法。



(1)参数简介

  • 默认负载因子:0.75
  • 默认容量大小:16

即 12个人的会议,需要:12 / 0.75 = 16把椅子

因为 mod 16 比 mod 12的冲突概率小,且并不浪费资源

但​​人数 > (椅子数量 × 负载因子)​​​时会进行扩容。调用​​resize​​,将容量扩充为原来的 2 倍。



(2)遍历元素

  1. 多个元素落在同一个哈希桶(bucket)中会形成链表(JDK7 之后,可能会随链表长度增加唉进化为红黑树)
  2. 这个链表的头节点保存在哈希槽(slot)上
  3. 遍历​​Map​​的元素从两个方向进行:
  1. 从下标​​table[0]​​​ 至​​table[length - 1]​​遍历所有哈希槽
  2. 如果哈希槽上存在元素,则遍历哈希桶里的所有元素




二、扩容数据丢失问题


在JDK7下,主要是:

  1. ​put()​​方法
  2. ​transfer()​​方法


(1)JDK7 源码分析 ​​put​

若两个线程都执行到​​Entry<K,V> e = table[bucketIndex];​​​,
那么一个线程的赋值就会被另一个覆盖掉,这就造成了对象丢失。

如图:

【Java】之 HashMap浅析_Java_03


【Java】之 HashMap浅析_链表_04



(2)JDK7 源码分析 ​​resize​

当前线程迁移过程中,其他线程新增的元素有可能落在已经遍历过的哈希槽上;
在遍历完成之后,​​​table​​​数组引用指向了​​newTable​​,这时新增元素就会丢失,被无情地垃圾回收。

如图:

【Java】之 HashMap浅析_Java_05


【Java】之 HashMap浅析_死链_06



(2)JDK8下,观察​​resize​

public class HashMapSimpleResize {

private static HashMap map = new HashMap();

public static void main(String[] args) {

// 扩容的阈值是 table.length * 0.75
// 第一次扩容发生在第13个元素置入时
for (int i = 0; i < 13; ++i) {
map.put(new UserKey(), new Object());
}
}
}

class UserKey {

public int hashCode() {
return 1;
}

public boolean equals(Object obj) {
return false;
}
}

当添加第9个元素(i = 8)时,​​threshold​​ 从 12 变为 24

​threshold​​初始值:16 * 0.75 = 12

这时候调用链为:
​​​put()​​​ -> ​​putVal()​​​ -> ​​treeifyBin()​​​ -> ​​resize()​

即当链表长度大于8时(要加入第9个元素时),调用​​treeifyBin()​​,调整为 红黑树。

详细源码看下面。



(3)JDK8 源码解析



1. ​​put​

public V put(K key, V value) {

// 先进行hash处理
return putVal(hash(key), key, value, false, true);
}

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 如果当前数组 table 是null,则进行 resize()
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 算出对应的数组下标,若为 null,即为不存在,则创建一个
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else { // 即hash碰撞,存在key相同的元素
Node<K,V> e; K k;
// 判断 key 是否存在,如果存在就覆盖原来的 value
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 是否是 树节点,若是,则用树的方法添加节点
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else { // 既不 equal,也不是 树节点
for (int binCount = 0; ; ++binCount) {
// 若节点下个指针 为 null
if ((e = p.next) == null) {
// 创建新节点,并链接
p.next = newNode(hash, key, value, null);
// 节点数是否 >= 8, TREEIFY_THRESHOLD = 8
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
// 树转换,变为红黑树
treeifyBin(tab, hash);
break;
}
// 若key已经存在,跳出循环
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 找到值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
// 移动节点去末尾
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}



2. ​​resize()​

final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
// 如果大于最大容量,则直接返回
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 若扩容后的值没有超过最大值,则扩容两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 计算 new threshold 值
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 创建新 Entry 数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
// 把每一个 bucket 都移动到新的 bucket中去
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode) // 如果已经转换为树,则按照树操作
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}




三、死链问题


(1)死链原因

两个线程 A 和 B,执行​​transfer​​​方法,虽然​​newTable​​​是局部变量,但是原先​​table​​​中的​​Entry​​​链表是共享的。产生问题的根源是 ​​Entry​​​ 的 ​​next​​被并发修改。

这可能导致:

  1. 对象丢失
  2. 两个对象互链
  3. 对象自己互链

形成环路的原因:两个线程都执行完第一个节点的遍历操作后,到第二个节点时,产生互链。

如图:




四、问题


(1)哈希碰撞后,拉链了,那如何确定对象呢?

区分概念:

  1. 对象

每个对象唯一,有对象ID

  1. 哈希值

根据​​hashCode()​​求得