HashMap 是基于哈希表的Map 接口的非同步实现。此实现提供所有可选的映射操作,并允许使用null 值和null 键(允许一个null键,HashTable不允许entry的键或者值为空)。此类不保证映射的顺序,特别是它不保证该顺序恒久不变。

JDK1.8 之前 HashMap 由 ​​数组+链表​​​ 组成的,数组是 HashMap 的主体,链表则是主要为了解决哈希冲突而存在的(​​“拉链法”解决冲突​​​)。JDK1.8 以后在解决哈希冲突时有了较大的变化,当​​链表长度大于阈值(默认为 8)时,且tab.length>64时,将链表转化为红黑树​​​,以减少搜索时间。
深入学习Java集合之HashMap的实现原理_结点

【1】底层数据结构分析

JDK1.8 之前 HashMap 底层是 ​​数组和链表​​​ 结合在一起使用也就是 ​​链表散列​​​。HashMap 通过 ​​key 的 hashCode​​​ 经过​​扰动函数​​​处理过后得到 ​​hash 值​​​,然后通过 ​​(n - 1) & hash值​​​ 判断当前元素存放的位置(这里的 ​​n 指的是数组的长度​​​)。如果当前位置存在元素的话,就判断该元素与要存入的元素的 ​​hash 值以及 key​​ 是否相同,如果相同的话,直接覆盖;不相同就通过拉链法解决冲突。

① ​​hash(Object key)​​–扰动函数

所谓扰动函数指的就是 ​​HashMap 的 hash​​ 方法。使用 hash 方法也就是扰动函数是为了防止一些实现比较差的 hashCode() 方法造成的碰撞,换句话说使用扰动函数之后可以减少碰撞。

JDK 1.8 的 ​​hash​​​方法 相比于 JDK 1.7 ​​hash​​ 方法更加简化,但是原理不变。

static final int hash(Object key) {
int h;
// key.hashCode():返回散列值也就是hashcode
// ^ :按位异或--相同为0 不同为1
// >>>:无符号右移,符号位随着移动,空位都以0补齐
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
//保留h的高16位,低16位变为原高16位与低16位异或结果
}

对比一下 JDK1.7的 HashMap 的 ​​hash​​ 方法源码。

static int hash(int h) {
// This function ensures that hashCodes that differ only by
// constant multiples at each bit position have a bounded
// number of collisions (approximately 8 at default load factor).

h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}

​hash(int h)​​​方法根据​​key 的hashCode​​ 重新计算一次散列。此算法加入了高位计算,防止低位不变,高位变化时,造成的hash 冲突。

相比于 JDK1.8 的 hash 方法 ,JDK 1.7 的 hash 方法的性能会稍差一点点,因为毕竟扰动了 4 次。我们可以看到在HashMap 中要找到某个元素,需要根据​​key 的hash 值​​来求得对应数组中的位置。如何计算这个位置就是hash 算法。

② 拉链法

所谓 ​​“拉链法”​​​ 就是:将​​链表和数组​​​相结合。也就是说创建一个​​链表数组​​​,数组中​​每一格就是一个链表​​。若遇到哈希冲突,则将冲突的值加到链表中即可。

jdk1.7 HashMap数据结构:
深入学习Java集合之HashMap的实现原理_链表_02
从上图中可以看出,HashMap 底层就是一个数组结构,数组中的每一项又是一个链表。当新建一个HashMap 的时候,就会初始化一个数组。


③ jdk1.8及以后

相比于之前的版本,jdk1.8在解决哈希冲突时有了较大的变化,​​当链表长度大于阈值(TREEIFY_THRESHOLD 默认为8)且tab.length>64时,将链表转化为红黑树​​,以减少搜索时间。

深入学习Java集合之HashMap的实现原理_链表_03


【2】类的属性

public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {
// 序列号
private static final long serialVersionUID = 362498820763181265L;

// 默认的初始容量是16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;

// 最大容量 2^30
static final int MAXIMUM_CAPACITY = 1 << 30;

// 默认的填充因子0.75
static final float DEFAULT_LOAD_FACTOR = 0.75f;

// 当桶(bucket)上的结点数大于这个值时会转成红黑树
static final int TREEIFY_THRESHOLD = 8;

// 当桶(bucket)上的结点数小于这个值时树转链表
static final int UNTREEIFY_THRESHOLD = 6;

// 桶中结构转化为红黑树对应的数组 table的最小大小
//即,如果根据TREEIFY_THRESHOLD 判断需要转成红黑树时,还要判断当前容量是否大于MIN_TREEIFY_CAPACITY
//如果小于MIN_TREEIFY_CAPACITY ,则resize;否则转成红黑树
static final int MIN_TREEIFY_CAPACITY = 64;

// 存储元素的数组,总是2的幂次倍
transient Node<k,v>[] table;

// 存放具体元素的集
transient Set<map.entry<k,v>> entrySet;

// 存放元素的个数,注意这个不等于数组的长度(table.length)
transient int size;

// 每次扩容和更改map结构的计数器--快速失败机制有关
transient int modCount;

//The next size value at which to resize (capacity * load factor).
// 临界值, 当实际大小(容量*填充因子)超过临界值时,会进行扩容
//默认为16*0.75=12
int threshold;

// 填充因子-负载因子
final float loadFactor;
}
  • loadFactor加载因子

负载因子loadFactor 定义为:​​散列表的实际元素数目(n)/ 散列表的容量(m)​​。

loadFactor加载因子是控制数组存放数据的疏密程度,loadFactor越趋近于1,那么 数组中存放的数据(entry)也就越多,也就越密,也就是会让链表的长度增加;​​load Factor​​越小,也就是趋近于0,散列表的数据将过于稀疏,对空间造成严重浪费。

负载因子衡量的是一个散列表的空间的使用程度,负载因子越大表示散列表的装填程度越高,反之愈小。对于使用链表法的散列表来说,查找一个元素的平均时间是O(1+a),因此如果负载因子越大,对空间的利用更充分,然而后果是查找效率的降低 ;如果负载因子太小,那么散列表的数据将过于稀疏,对空间造成严重浪费。loadFactor太大导致查找元素效率低,太小导致数组的利用率低,存放的数据会很分散。loadFactor的默认值为​​0.75f​​是官方给出的一个比较好的临界值。

给定的​​默认容量为 16,负载因子为 0.75​​​。Map 在使用过程中不断的往里面存放数据,当size(数量)达到了​​threshold-临界值- 16 * 0.75 = 12 就需要将当前 16 的容量进行扩容​​,而扩容这个过程涉及到 rehash、复制数据等操作,所以非常消耗性能。

  • threshold

HashMap 的实现中,通过threshold 字段来判断HashMap 的最大容量:

threshold = (int)(capacity * loadFactor);

结合负载因子的定义公式可知,​​threshold 就是在此loadFactor 和capacity​​​ 对应下​​允许的最大元素数目​​​,超过这个数目就重新resize,以降低实际的负载因子。默认的的负载因子0.75是对空间和时间效率的一个平衡选择。当容量超出此最大容量时, ​​resize后的HashMap容量是容量的两倍​​。


【3】Node节点类源码

Node节点类源码如下:

// 实现自 Map.Entry<K,V>
static class Node<K,V> implements Map.Entry<K,V> {
// 哈希值,存放元素到hashmap中时用来与其他元素hash值比较
final int hash;
final K key;//键
V value;//值
// 指向下一个节点
Node<K,V> next;
//根据构造函数可知,Node节点包含hash值 key value以及指向下一个结点的引用
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }

// 重写hashCode()方法
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}

public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
// 重写 equals() 方法
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}

Object的hashCode(Object o)方法:

public static int hashCode(Object o) {
return o != null ? o.hashCode() : 0;
}

TreeNode节点类部分源码如下:

static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<K,V> parent; // 父
TreeNode<K,V> left; // 左
TreeNode<K,V> right; // 右
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red; // 判断颜色
TreeNode(int hash, K key, V val, Node<K,V> next) {
super(hash, key, val, next);
}
// 返回根节点
final TreeNode<K,V> root() {
for (TreeNode<K,V> r = this, p;;) {
if ((p = r.parent) == null)
return r;
r = p;
}

【4】HashMap源码分析

① 构造函数

// 默认构造函数,使用默认加载因子和初始容量 -初始容量为 16,负载因子为 0.75
public More ...HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}

// 包含另一个“Map”的构造函数
public More ...HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);//下面会分析到这个方法
}

// 指定“容量大小”的构造函数并使用默认负载因子0.75
public More ...HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}

// 指定“容量大小”和“加载因子”的构造函数
//initialCapacity:HashMap 的最大容量,即为底层数组的长度。
public More ...HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
this.loadFactor = loadFactor;
//根据initialCapacity计算threshold
this.threshold = tableSizeFor(initialCapacity);
}

② putMapEntries方法

final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
int s = m.size();
if (s > 0) {
// 判断table是否已经初始化
if (table == null) { // pre-size
// 未初始化,s为m的实际元素个数
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
// 计算得到的t大于阈值,则重新赋值阈值
if (t > threshold)
threshold = tableSizeFor(t);
}
// tab已初始化,并且m元素个数大于阈值,进行扩容处理
else if (s > threshold)
resize();
// 将m中的所有元素添加至HashMap中
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict);
}
}
}

③ JDK1.8中put方法

HashMap只提供了put用于添加元素,putVal方法只是给put方法调用的一个方法,并没有提供给用户使用。

对putVal方法添加元素的分析如下:

  • ①如果定位到的数组位置没有元素 就直接插入。
  • ②如果定位到的数组位置有元素就和要插入的key比较,如果key相同就直接覆盖,如果key不相同,就判断p是否是一个树节点,如果是就调用​​e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value)​​将元素放进去。如果不是就遍历链表将元素放进去(使用“放进去”表示可能覆盖旧的结点,也可能添加一个新的结点在末尾)。

深入学习Java集合之HashMap的实现原理_链表_04

public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}

/**
实现Map.put和相关方法
@param onlyIfAbsent 如果为true,不改变存在的值
@param evict 如果为false,则表处于创建模式
返回旧值,不存在则返回null
下面描述中的桶为数组中的节点和该节点后面的链表或红黑树结点组合体
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p;
int n, i;//n为tab数组长度

// table未初始化或者长度为0,进行扩容
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;

// `(n - 1) & hash` 确定元素存放在哪个桶中,如果桶为空,新生成结点放入桶中
//(此时,这个结点是放在数组中)
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
// 桶中该位置已经存在元素
else {
Node<K,V> e; K k;
// 比较桶中第一个元素(数组中的结点)的hash值相等,key相等
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
// 将第一个元素赋值给e,用e来记录
e = p;
// hash值不相等,即key不相等;判断是否为红黑树结点
else if (p instanceof TreeNode)
// 放入树中
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 如果为链表结点
else {
// 在链表最末插入结点
for (int binCount = 0; ; ++binCount) {
// 判断是否到达链表的尾部
if ((e = p.next) == null) {
// 如果在尾部则在尾部插入新结点,jdk1.7是插入到链表头部
p.next = newNode(hash, key, value, null);
// 结点数量达到阈值,尝试转化为红黑树(没说一定转),具体看下文该方法分析
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
// 跳出循环
break;
}
// 循环遍历过程中,判断链表中结点的key值与插入的元素的key值是否相等,hash是否相等
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
// 相等,跳出循环
break;
// 用于遍历桶中的链表,与前面的e = p.next组合,可以遍历链表
p = e;
}//到这for循环结束
}
// 表示在桶中找到key值、hash值与插入元素相等的结点
//或者e是一个新结点
if (e != null) {
// 记录e的value
V oldValue = e.value;
// onlyIfAbsent为false或者旧值为null
if (!onlyIfAbsent || oldValue == null)
//用新值替换旧值
e.value = value;
// 访问后回调
afterNodeAccess(e);
// 返回旧值
return oldValue;
}
}
// 结构性修改
++modCount;
// 实际大小大于阈值则扩容
//size 非tab.length
if (++size > threshold)
resize();
// 插入后回调
afterNodeInsertion(evict);
return null;
}

④ JDK1.7 put方法的代码

对于put方法的分析如下:

  • ①如果定位到的数组位置没有元素 就直接插入。
  • ②如果定位到的数组位置有元素,遍历以这个元素为头结点的链表,依次和插入的key比较,如果key相同就直接覆盖,key不同就采用头插法插入元素。
public V put(K key, V value)
//判断是否为空表
if (table == EMPTY_TABLE) {
inflateTable(threshold);
}
// HashMap 允许存放null 键和null 值。
// 当key 为null 时,调用putForNullKey 方法,将value 放置在数组第一个位置。
if (key == null)
return putForNullKey(value);

//获取key的hash值
int hash = hash(key);
//搜索指定hash 值在对应table 中的索引。
int i = indexFor(hash, table.length);
//如果 i 索引处的 Entry 不为 null,通过循环不断遍历 e 元素的下一个元素。
for (Entry<K,V> e = table[i]; e != null; e = e.next) { // 从table[i]先遍历
Object k;
//如果hash和key相同,则直接覆盖并返回旧值
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
// 如果i 索引处的Entry 为null,表明此处还没有Entry。
//将key、value 添加到i 索引处。
addEntry(hash, key, value, i);
return null;
}

根据上面​​(jdk1.7)put​​​ 方法的源代码可以看出,当程序试图将一个key-value 对放入HashMap中时,程序首先根据该 key 的 hash值决定该 Entry 的存储位置:如果两个 Entry 的 key 的 hash值相同,那它们的存储位置相同。如果这两个 Entry 的 key 通过 equals 比较返回 true,新添加 Entry 的 value 将覆盖集合中原有 Entry 的 value,但key 不会覆盖。如果这两个 Entry 的 key 通过 equals 比较返回 false,新添加的 Entry 将与集合中原有 Entry 形成 Entry 链,而且​​新添加的 Entry 位于 Entry 链的头部​​——具体说明继续看 addEntry() 方法的说明。如果数组该位置上没有元素,就直接将该元素放到此数组中的该位置上。

​addEntry(hash, key, value, i)​​​方法根据计算出的hash 值,将key-value 对放在数组table的 ​​i​​ 索引处。addEntry 是 HashMap 提供的一个包访问权限的方法,代码如下:

//JDK1.7中
void addEntry(int hash, K key, V value, int bucketIndex) {
// 获取指定 bucketIndex 索引处的 Entry
Entry<K,V> e = table[bucketIndex];
// 将新创建的 Entry 放入 bucketIndex 索引处,并让新的 Entry 指向原来的 Entry
table[bucketIndex] = new Entry<K,V>(hash, key, value, e);
// 如果 Map 中的 key-value 对的数量超过了阈值
if (size++ >= threshold)
// 把 table 对象的长度扩充到原来的2 倍。
resize(2 * table.length);
}

当系统决定存储HashMap 中的key-value 对时,完全没有考虑Entry 中的value,仅仅只是根据key 来计算并决定每个Entry 的存储位置。我们完全可以把 Map 集合中的 value 当成 key 的附属,当系统决定了 key 的存储位置之后,value 随之保存在那里即可。

我们可以看到在HashMap 中要找到某个元素,需要根据key 的hash 值来求得对应数组中的位置。如何计算这个位置就是hash 算法。前面说过jdk1.7中HashMap 的数据结构是数组和链表的结合,所以我们当然希望这个HashMap 里面的 ​​元素位置尽量的分布均匀些​​,尽量使得每个位置上的元素数量只有一个。那么当我们用hash 算法求得这个位置的时候,马上就可以知道对应位置的元素就是我们要的,而不用再去遍历链表,这样就大大优化了查询的效率。

对于任意给定的对象,只要它的 hashCode() 返回值相同,那么程序调用 ​​hash(int h)​​​ 方法所计算得到的 ​​hash 码值​​​总是相同的。我们首先想到的就是把​​hash 值对数组长度取模​​​运算,这样一来,元素的分布相对来说是比较均匀的。但是,​​“模”运算​​​的消耗还是比较大的,在HashMap 中是这样做的:​​(n - 1) & hash,n为tab.length​​​来计算该对象应该保存在 table 数组的哪个索引处。这个方法非常巧妙,它通过 ​​(n - 1) & hash​​​ 来得到该对象的保存位,而HashMap​​底层数组的长度​​​总是 ​​2 的 n 次方​​,这是HashMap 在速度上的优化。

为什么说​​(n-1)&hash​​ 是速度上的优化?请看下面分析。

初始化时HashMap 的容量总是​​2 的n​​​ 次方,即底层数组的长度总是为2的n 次方。当length 总是 2 的n 次方时,​​(n - 1) & hash​​​运算等价于对length 取模,也就是​​hash%n​​​,但是​​&比%​​具有更高的效率。

这看上去很简单,其实比较有玄机的,我们举个例子来说明。

假设数组长度分别为15 和16,优化后的hash 码分别为8 和9,那么&运算后的结果如下:
深入学习Java集合之HashMap的实现原理_数组_05
从上面的例子中可以看出:当它们和​​​15-1(1110)“与”​​​的时候,产生了相同的结果,也就是说它们会定位到数组中的同一个位置上去,这就产生了碰撞,8 和9 会被放到数组中的同一个位置上形成链表,那么查询的时候就需要遍历这个链 表,得到8 或者9,这样就降低了查询的效率。同时,我们也可以发现,当数组长度为15 的时候,hash 值会与​​15-1(1110)进行“与”​​,那么 最后一位永远是0,而0001,0011,0101,1001,1011,0111,1101 这几个位置永远都不能存放元素了,空间浪费相当大。更糟的是这种情况中,数组可以使用的位置比数组长度小了很多,这意味着进一步增加了碰撞的几率,减慢了查询的效率!

而当数组长度为16 时,即为2 的n 次方时,​​2^n-1​​​ 得到的二进制数的每个位上的值都为1,这使得在​​低位上&​​​时,得到的和原​​hash 的低位​​​相同,加之​​hash(int h)​​​方法对key 的hashCode的进一步优化,加入了高位计算,就使得只有相同的​​hash​​ 值的两个值才会被放到数组中的同一个位置上形成链表。所以说,当数组长度为2 的n 次幂的时候,不同的key 算得得index相同的几率较小,那么数据在数组上分布就比较均匀,也就是说碰撞的几率小,相对的,查询的时候就不用遍历某个位置上的链表,这样查询效率也就较高了。


⑤ get方法

jdk1.8中get方法:

public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
//根据key的hash值和key获取一个Node-static class Node<K,V> implements Map.Entry<K,V>
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab;
Node<K,V> first, e;
int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 判断第一个数组元素,key的hash值和key值相等
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 遍历下面节点,桶中不止一个节点
if ((e = first.next) != null) {
// 如果节点为树结点,就在树中get
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 在链表中get
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}

JDK1.7的get方法如下:

public V get(Object key) {
if (key == null)
return getForNullKey();
int hash = hash(key.hashCode());
for (Entry<K,V> e = table[indexFor(hash, table.length)];
e != null;
e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k)))
return e.value;
}
return null;
}

从HashMap 中get 元素时,首先计算key 的hash,找到数组中对应位置的某一元素,然后通过key 的equals 方法在对应位置的链表中找到需要的元素。在1.7中有一个很明显的地方是:当 Hash 冲突严重时,在桶上形成的链表会变的越来越长,这样在查询时的效率就会越来越低;时间复杂度为 ​​O(N)​​。

从这两个核心方法(get/put)可以看出 1.8 中对​​大链表​​​做了优化,修改为红黑树之后查询效率直接提高到了 ​​O(logn)​​。


【5】HashMap 的resize(rehash)

当HashMap 中的元素越来越多的时候,hash 冲突的几率也就越来越高,因为数组的长度是固定的。所以为了提高查询的效率,就要对HashMap 的数组进行扩容,数组扩容这个操作也会出现在ArrayList 中,这是一个常用的操作。

而在HashMap 数组扩容之后,最消耗性能的点就出现了:原数组中的数据必须重新计算其在新数组中的位置,并放进去,这就是​​resize​​。

那么HashMap 什么时候进行扩容呢?当HashMap 中的元素个数超过​​数组大小*loadFactor​​​ 时,就会进行数组扩容,loadFactor 的默认值为0.75,这是一个折中的取值。也就是说,默认情况下,数组大小为16,那么当HashMap 中元素个数超过​​16*0.75=12​​​ 的时候,就把数组的大小扩展为 ​​2*16=32​​,即扩大一倍,然后重新计算每个元素在数组中的位置。而这是一个非常消耗性能的操作,所以如果我们已经预知HashMap 中元素的个数,那么预设元素的个数能够有效的提高HashMap 的性能。

JDK1.8中resize方法如下:

final Node<K,V>[] resize() {
//旧的数组表
Node<K,V>[] oldTab = table;
//旧的tab length
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//旧的阈值
int oldThr = threshold;

int newCap, newThr = 0;
//第一种,旧的tab.length大于0
if (oldCap > 0) {
// 超过最大值就不再扩充了,就只好随你碰撞去吧
//MAXIMUM_CAPACITY --1<<30
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 没超过最大值,就将tab.length和threshold扩充为原来的2倍
//DEFAULT_INITIAL_CAPACITY-- 1<<4
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
//第二种,tab.length==0,这时 newCap = oldThr;即新的容量为旧的阈值
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;

//第三种,oldCap ==0 &&oldThr ==0 使用默认值
else {
signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 计算新的newThr
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE);
}
//重新赋值threshold 为newThr
threshold = newThr;

//到这里,新的容量和新的阈值都重新赋值完毕
//根据新的容量创建新的tab
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab; //重新赋值table 为newTab

if (oldTab != null) {
// 把每个bucket都移动到新的buckets中
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {

//将其置为null 方便GC
oldTab[j] = null;

//判断是否有下一个节点
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;//根据(n-1)&hash获取数组下标位置
//判断是否树节点
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { //链表
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
// 原索引
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
// 原索引+oldCap
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);

// 原索引放到bucket里
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
// 原索引+oldCap放到bucket里
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}

【6】TreeNode的相关方法

① putTreeVal(HashMap<K,V> map, Node<K,V>[] tab, int h, K k, V v)

在putVal方法中判断当前节点​​(p = tab[i = (n - 1) & hash])​​是否为TreeNode,如果是,则调用putTreeVal方法。

源码如下:

//根据hash key 获取一个Node<K,V> e
final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab,
int h, K k, V v) {
Class<?> kc = null;
boolean searched = false;
//根结点
TreeNode<K,V> root = (parent != null) ? root() : this;
for (TreeNode<K,V> p = root;;) {
int dir, ph;
K pk;//pk为根结点的key
//根结点的hash值与将要被放入的元素的hash值比较
if ((ph = p.hash) > h)
dir = -1;
else if (ph < h)
dir = 1;
//如果根结点hash值和key都等于将要被放入元素的hash值和key,则返回根结点
else if ((pk = p.key) == k || (k != null && k.equals(pk)))
return p;
//如果hash值相等但是key不等,则尝试遍历左右分支
//判断kc是否为可比较类,如果是;
//则判断if pk matches kc,如果是返回k.compareTo(pk),否则返回0。
else if ((kc == null && (kc = comparableClassFor(k)) == null)
||
(dir = compareComparables(kc, k, pk)) == 0) {
//如果没有搜索过
if (!searched) {
TreeNode<K,V> q, ch;
searched = true;
//遍历左右分支,根据h k kc找到一个结点
if (((ch = p.left) != null &&
(q = ch.find(h, k, kc)) != null) ||
((ch = p.right) != null &&
(q = ch.find(h, k, kc)) != null))
return q;
}
dir = tieBreakOrder(k, pk);
}
//如果左右分支没有找到,就插入一个新结点
TreeNode<K,V> xp = p;
if ((p = (dir <= 0) ? p.left : p.right) == null) {
Node<K,V> xpn = xp.next;
TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
if (dir <= 0)
xp.left = x;
else
xp.right = x;
xp.next = x;
x.parent = x.prev = xp;
if (xpn != null)
((TreeNode<K,V>)xpn).prev = x;
moveRootToFront(tab, balanceInsertion(root, x));
return null;
}
}
}

② getTreeNode(int h, Object k)

在get方法中获取一个结点时,如果该结点为树结点,就会调用getTreeNode(int h, Object k)方法。

final TreeNode<K,V> getTreeNode(int h, Object k) {
return ((parent != null) ? root() : this).find(h, k, null);
//这里kc为null
}
/**
* 根据hash和key从root查找一个node
* 当第一次使用comparing keys,kc缓存comparableClassFor(key)
*/
final TreeNode<K,V> find(int h, Object k, Class<?> kc) {
TreeNode<K,V> p = this;
do {
int ph, dir; K pk;
TreeNode<K,V> pl = p.left, pr = p.right, q;
//如果ph>h,则p=p.left
if ((ph = p.hash) > h)
p = pl;
//如果ph<h,则p=p.right
else if (ph < h)
p = pr;
//如果hash和key都相等,直接返回p
else if ((pk = p.key) == k || (k != null && k.equals(pk)))
return p;
//如果hash相等,key不等,判断pl是否为null ,如果pl为null,就p=p.right
else if (pl == null)
p = pr;
//如果hash相等,key不等,判断pr是否为null ,如果pr为null,就p=p.left
else if (pr == null)
p = pl;
//如果hash相等,key不等,且pl pr均不为null,判断kc
//就根据dir 判断给p赋值pl还是pr
else if ((kc != null ||
(kc = comparableClassFor(k)) != null) &&
(dir = compareComparables(kc, k, pk)) != 0)
p = (dir < 0) ? pl : pr;
//从右边开始查找
else if ((q = pr.find(h, k, kc)) != null)
return q;

else
p = pl;
} while (p != null);
return null;
}

③ treeifyBin(Node<K,V>[] tab, int hash)

替换给定index处(使用hash确定)“桶”的连接节点,在put中​​if (binCount >= TREEIFY_THRESHOLD - 1)​​​就会调用​​treeifyBin(Node<K,V>[] tab, int hash)​​方法,尝试转为红黑树。

final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
//首先判断tab.length,不合适就扩容;
//tab.length大于等于MIN_TREEIFY_CAPACITY时才进行红黑树转换
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
//拿到数组中index处的元素
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
//循环遍历,把每个e替换为TreeNode
do {
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);
}
}

//返回一个新的TreeNode
TreeNode<K,V> replacementTreeNode(Node<K,V> p, Node<K,V> next) {
return new TreeNode<>(p.hash, p.key, p.value, next);
}

④ split(HashMap<K,V> map, Node<K,V>[] tab, int index, int bit)

在resize中,如果结点为TreeNode,则调用该方法:

/*Splits nodes in a tree bin into lower and upper tree bins,
* or untreeifies if now too small. Called only from resize;
* see above discussion about split bits and indices.
* */
final void split(HashMap<K,V> map, Node<K,V>[] tab, int index, int bit) {
TreeNode<K,V> b = this;
// Relink into lo and hi lists, preserving order
TreeNode<K,V> loHead = null, loTail = null;
TreeNode<K,V> hiHead = null, hiTail = null;
int lc = 0, hc = 0;
for (TreeNode<K,V> e = b, next; e != null; e = next) {
next = (TreeNode<K,V>)e.next;
e.next = null;
if ((e.hash & bit) == 0) {
if ((e.prev = loTail) == null)
loHead = e;
else
loTail.next = e;
loTail = e;
++lc;
}
else {
if ((e.prev = hiTail) == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
++hc;
}
}

if (loHead != null) {
if (lc <= UNTREEIFY_THRESHOLD)
tab[index] = loHead.untreeify(map);
else {
tab[index] = loHead;
if (hiHead != null) // (else is already treeified)
loHead.treeify(tab);
}
}
if (hiHead != null) {
if (hc <= UNTREEIFY_THRESHOLD)
tab[index + bit] = hiHead.untreeify(map);
else {
tab[index + bit] = hiHead;
if (loHead != null)
hiHead.treeify(tab);
}
}
}

【7】Fail-Fast 机制

我们知道java.util.HashMap 不是线程安全的,因此如果在使用迭代器的过程中有其他线程修改了map,那么将抛出ConcurrentModificationException,这就是所谓fail-fast 策略。

这一策略在源码中的实现是通过modCount 域,modCount 顾名思义就是修改次数,对HashMap 内容的修改都将增加这个值,那么在迭代器初始化过程中会将这个值赋给迭代器的expectedModCount。

abstract class HashIterator {
Node<K,V> next; // next entry to return
Node<K,V> current; // current entry
int expectedModCount; // for fast-fail
int index; // current slot

HashIterator() {
expectedModCount = modCount;
Node<K,V>[] t = table;
current = next = null;
index = 0;
if (t != null && size > 0) { // advance to first entry
do {} while (index < t.length && (next = t[index++]) == null);
}
}

public final boolean hasNext() {
return next != null;
}

final Node<K,V> nextNode() {
Node<K,V>[] t;
Node<K,V> e = next;
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
if (e == null)
throw new NoSuchElementException();
if ((next = (current = e).next) == null && (t = table) != null) {
do {} while (index < t.length && (next = t[index++]) == null);
}
return e;
}

public final void remove() {
Node<K,V> p = current;
if (p == null)
throw new IllegalStateException();
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
current = null;
K key = p.key;
removeNode(hash(key), key, null, false, false);
expectedModCount = modCount;
}
}

在迭代过程中,判断modCount 跟expectedModCount 是否相等,如果不相等就表示已经有其他线程修改了Map。

在HashMap 的API 中指出,由所有HashMap 类的“collection 视图方法”所返回的迭代器都是快速失败的:在迭代器创建之后,如果从结构上对映射进行修改,除非通过迭代器本身的 remove 方法,其他任何时间任何方式的修改,迭代器都将抛出 ConcurrentModificationException。因此,面对并发的修改,迭代器很快就会完全失败,而不冒在将来不确定的时间发生任意不确定行为的风险。

注意,迭代器的快速失败行为不能得到保证,一般来说,存在非同步的并发修改时,不可能作出任何坚决的保证。快速失败迭代器尽最大努力抛出 ConcurrentModificationException。因此,编写依赖于此异常的程序的做法是错误的,正确做法是:迭代器的快速失败行为应该仅用于检测程序错误。


【8】HashMap的一些问题

① 在并发场景下使用时容易出现死循环

如下图所示,使用1000个线程并发往map中放数据:
深入学习Java集合之HashMap的实现原理_链表_06
因为在HashMap扩容的时候会调用resize()方法,就是这里的并发操作容易在一个桶上形成环形链表。这样当获取一个不存在的 key 时,计算出的 index 正好是环形链表的下标就会出现死循环。如图:
深入学习Java集合之HashMap的实现原理_HashMap源码分析_07

② HashMap的并发问题

hashmap在插入新的阶段的时候,多个线程同时插入,会把除了最后的那个线程的其它线程插入的结点丢失。

对于修改的时候,多个线程修改,会只保留最后的一个线程的修改结果。

扩容的时候,会只保留最后一个线程的扩容后的那个数组。

参考博文:

​HashMap相关理解​​浅谈从fail-fast机制到CopyOnWriteArrayList使用HashMap死循环分析