内容简介:概述因此,JDK 1.8 中的 HashMap 实现可以理解为「数组 + 链表 + 红黑树」。内部结构示意图:
概述
HashMap 是 Java 开发中最常用的容器类之一,也是面试的常客。 它其实就是前文「 数据结构与算法笔记(二) 」中 「散列表」的实现,处理散列冲突用的是“链表法”,并且在 JDK 1.8 做了优化,当链表长度达到一定数量时会把链表转为红黑树。
因此,JDK 1.8 中的 HashMap 实现可以理解为「数组 + 链表 + 红黑树」。内部结构示意图:
HashMap 的继承结构和类签名如下:
public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable {}
PS: 还记得以前初读 HashMap 源码时,用了周末两天的时间,而且读完脑子里还是一头雾水。 当时也没做什么笔记,这次记录一下。
代码分析
一些成员变量
// 默认初始化容量(必须是 2 的次幂)
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
// 最大容量(必须是 2 的次幂,且小于等于 2^30)
static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认负载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 将链表转为树的阈值(当 bin 的数量大于等于该值时,将链表转为树)
// 该值必须大于 2 且至少是 8,
static final int TREEIFY_THRESHOLD = 8;
// 将树转为链表的阈值
static final int UNTREEIFY_THRESHOLD = 6;
Node 类
先看 HashMap 中的一个嵌套类 Node,如下(部分方法省略):
/**
* Basic hash bin node, used for most entries. (See below for
* TreeNode subclass, and in LinkedHashMap for its Entry subclass.)
*/
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
该 Node 类实现了 Map.Entry 接口,是 HashMap 中基本的 bin 节点,此外还有 TreeNode。参考上面的结构图。
构造器
构造器 1 :无参数构造器
// 负载因子
final float loadFactor;
/**
* Constructs an empty HashMap with the default initial capacity
* (16) and the default load factor (0.75).
*/
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
通过注释可知,该构造器使用默认的初始化容量(16)和默认的负载因子(0.75)构造了一个空的 HashMap。
构造器 2、3:
// 使用指定的初始化容量和默认负载因子(0.75)构造一个空的 HashMap
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
// 扩容的阈值(容量 * 负载因子)
int threshold;
// 使用指定的初始化容量和负载因子构造一个空的 HashMap
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
// PS: 负载因子可以大于 1
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
可以看到,这两个构造器实质上是同一个。 值得注意的是构造器中用到了一个 tableSizeFor 方法对初始化容量(initialCapacity)进行了处理:
/**
* Returns a power of two size for the given target capacity.
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
该方法的作用的是对给定的容量 cap 进行处理,把它转为大于等于 cap 的 2 次幂的数字。 例如:
若给定 cap 为 5,则返回是 8 (2^3);
若给定 cap 为 8,返回还是 8 (2^3);
若给定 cap 为 12,则返回是 16 (2^4).
而且,这里赋值的是 threshold 变量,即阈值。
构造器 4:
// 使用指定的 Map 构造一个 HashMap,默认负载因子为 0.75,容量充足
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
通过构造器可以看到,创建一个 HashMap 的时候,其内部只是初始化了一些变量,并未分配空间。
常用&核心方法
接下来分析最常用,也是 HashMap 的核心方法:put、get 和 resize 方法。
put 方法:
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
该方法首先会对 key 做一个处理,即 hash(key) 方法,如下:
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
该方法获取 key 的 hashCode,并且将其 hashCode 与右移 16 位后的值做“异或(^)”处理。 这一步的目的是什么?先看一个该操作的例子:
hashCode 是一个 32 位的整数,将其无符号右移 16 位之后,它的高 16 位就全部变成了 0,再与它的 hashCode 做异或运算之后,hashCode 的高 16 位不变,而低 16 位也以某种形式保留了高 16 位的信息。这样做目的是增大低位数字的随机性,从而尽可能减少散列冲突。
此处可参考:
https://www.zhihu.com/question/20733617/answer/111577937
下面的代码将前面生成的 hash 值和数组的长度减一( n - 1)做了一个按位与操作(相当于对 n - 1 取余数,位操作效率更高),从而确定元素的位置。相当于散列表的散列函数。
继续分析 put 方法:
// 散列表数组
transient Node<K,V>[] table;
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 若 table 为空,则调用 resize 方法初始化
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 若要存放的 bin 位置为空,则直接插入到该节点
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
// 要存放的 bin 的位置不为空(即散列冲突)
else {
Node<K,V> e; K k;
// key 已存在
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// p 是树节点(已经转成了红黑树),将新节点插入到红黑树中
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 不是树节点,新增元素后可能需要转为红黑树
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 大于等于树化的阈值后,将链表转为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 处理 key 已存在的情况
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value; // 替换旧值
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 若超过阈值(capacity * 0.75),则进行扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
其中:
1. 涉及红 黑树的相关操作可参考「 JDK源码分析-TreeMap(2) 」有关 TreeMap 分析以及前文的红黑树;
2. 有两个方法 afterNodeAccess(e) 和 after NodeInsertion(evict) 是用于 LinkedHashMap (HashMap 的子类) 的回调方法,这里暂不分析。
put 方法操作流程如图所示:
下面分析 resize 方法,该方法也是 HashMap 扩容的核心方法:
// 初始化 table 或者对其进行扩容
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
// 原 table 不为空
if (oldCap > 0) {
// 若 table 容量大于最大值,则将阈值调整为 Integer.MAX_VALUE,不扩容
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 新容量扩大为原先的 2 倍
// 若翻倍后的容量小于 int 最大值,且原容量大于等于默认初始容量(16),将阈值扩大为原先的 2 倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// 用阈值替代初始容量(指定初始容量的构造器)
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
// 无参构造器(默认的容量和阈值)
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 新的阈值
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
// 创建一个新的数组(大小为扩容后的容量大小)
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
// 原数组不为空,则进行扩容
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
// 该位置只有一个元素,将该元素移到新的位置
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
// 该位置是红黑树结构,将树节点拆分或转为链表
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
// 该位置是链表结构
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
// 原索引位置(注意 oldCap 是 2 的次幂,因此其 2 进制表示只有一位是 1,其他全是 0)
if ((e.hash & oldCap) == 0) {
// 链表为空
if (loTail == null)
loHead = e;
// 新节点添加到上个节点末尾
else
loTail.next = e;
loTail = e;
}
// 原索引位置+oldCap
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 设置 j 和 oldCap+j 位置的头结点
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
扩容后的新容量为原先的 2 倍,下面分析其扩容的原理:
扩容前:
原容量为 16,key1 和 key2 对应的 hash 值只有倒数第 5 位不同,此时对 oldCap-1 (15) 执行按位与操作,二者得到的结果都是 1111,都存放在第 15 个位置;
扩容后的位置选择:
代码中的判断条件为:if( (e.hash & oldCap) == 0) ,也就是 将 hash1 和 hash2 分别与 oldCap (16, 0b10000) 进行按位与操作,根据其是否为 0 来决定它在扩容后的新数组中的位置。可以看到倒数第五位中,key1 是 0,key2 是1.
扩容后:
新容量为 32,原 hash 值倒数第 5 位为 0 的 key1 在新数组中的位置仍是 15 (0b1111),而原 hash 值倒数第五位为 1 的 key2 在新数组中的位置是 0b11111,即 15 + 16 = 31.
如图所示:
get 方法
前面分析了 put 方法,get 方法有不少地方与之类似,因此分析起来就简单不少。代码如下:
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 第一个节点即为要找的元素
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 该位置有后序节点(为链表或红黑树)
if ((e = first.next) != null) {
// 若是树节点,说明该位置是红黑树,在红黑树中查找
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 在链表中遍历查找
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
小结
本文主要分析了 HashMap 的内部结构,以及最核心的三个方法:put、resize 和 get 方法。小结如下:
1. HashMap 是散列表的实现,它使用“链表法”处理散列冲突用,并在 JDK 1.8 引入红黑树进一步优化;
2. 内部结构为「数组 + 链表 + 红黑树」;
3. 默认初始化容量为 16,负载因子为 0.75,扩容的阈值为 16 * 0.75 = 12;
4. 当容器中元素的容量大于阈值时,HashMap 会自动扩容为原先的 2 倍。
参考文章:
https://tech.meituan.com/2016/06/24/java-hashmap.html
相关阅读:
Stay hungry, stay foolish.
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 以太坊源码分析(36)ethdb源码分析
- [源码分析] kubelet源码分析(一)之 NewKubeletCommand
- libmodbus源码分析(3)从机(服务端)功能源码分析
- [源码分析] nfs-client-provisioner源码分析
- [源码分析] kubelet源码分析(三)之 Pod的创建
- Spring事务源码分析专题(一)JdbcTemplate使用及源码分析
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。