Map:双列数据,储存key-value对的数据。实现map集合有四个实现类。
HashMap | LinkedHashMap | TreeMap | Hashtable | ConcurrentHashMap |
线程不安全,效率高,无序的 | HashMap的子类,线程不安全,效率高 ,有序的 | 有序的(默认情况下实现了比较器),查询效率高于HashMap | map的古老实现类,线程安全,效率低 | Hashtable的新型替代者,线程安全,效率比Hashtable高 |
能储存null的key和value | 能储存null的key和value | 不能能储存null的key和value | 不能能储存null的key和value | |
可以按添加顺序遍历,因为在HashMap基础上,添加了指向前和后的指针,对于频繁遍历,效率高于HashMap | 可以使用自然排序或者定制排序,底层是红黑树 | 和Hashtable、Collections.SynchronizedMap()相比效率高很多,因为是分段加锁 |
HashMap起始长度16,加载因子0.75,每次扩容为原来的2倍
Hashtable 起始长度11,加载因子0.75
- HashMap 的底层:数组+链表(jdk7及以前)
数组+链表+红黑树(jdk8) - Map结构的理解:
一个键值对:key-value构成了一个entry对象
- Map中的key:无序的、不可重复的,使用Set存储所有的key —>key所在的类需要重写equals()和hashCode()(以HashMap为例)
- Map中的value:无序的、可重复的,使用Collection存储所有的value—>value所在的类要重写equals()
- Map中的entry:无序的、不可重复的,使用Set存储所有的entry
- HashMap的底层实现原理:(重点)
jdk7中:
HashMap map=new HashMap();
在实例化以后,底层创建了长度为16的一维数组Entry[] table。
…可能已经执行了多次put…
map.put(key1,value1);
首先,调用key1所在类的hashCode()计算key1的哈希值,此哈希值经过某种算法计算后(底层是&运算),得到了Entry数组中的存放位置。
如果此位置上的数据为空,此时的key1-value1添加成功。----情况1
如果此位置上的元素不为空,(意味着此位置上存在一个或多个数据(以链表的形式存在)),比较key1和已经存在的一个或多个数据的哈希值:
如果key1的哈希值与已经存在的数据的哈希值都不相同,此时的key1-value1添加成功。----情况2
如果key1的哈希值和已经存在的某一个数据的(key2-value2)的哈希值相同,继续比较:调用key1所在类的equals(key2)方法。
如果equals()方法返回false:此时的key1-value1添加成功。----情况3
如果equals()方法返回true:使用value1替换value2.
补充:关于情况2和情况3:此时的key1-value1和原来的数据以链表的方式存储。
在不断添加的过程中,会涉及到扩容的问题,默认的扩容方式:扩容为原来的两倍,并将原有的数据复制过来。这时候会重新计算原来的那些数据,将他们重新以某种算法计算后(底层是&运算),重新分配位置。
jdk8相较于jdk7在底层实现方面的不同:
- new HashMap():底层没有创建一个长度为16的数组
- jdk8底层的数组是:Node[],而非Entry[](里面东西一样,换了个皮)
- 首次调用put()方法时,底层创建长度为16的数组
- jdk7底层结构只有:数组+链表;jdk8中的底层结构:数组+链表+红黑树
- 7上8下。在jdk7的时候,元素a放到数组中,指向原来的元素。
在jdk8的时候,原来的元素在数组中,指向元素a(详情见下图)。
扩容以及转换成红黑树的条件:
转换成红黑树的条件:当数组的某一个索引位置上的元素以链表形式存在的数据个数 >8 且当前数组长度 > 64时,此时此索引位置上的所有数据改成使用红黑树存储。
扩容有关的:
DEFAULT INITIAL_ CAPACITY: Hashmap的默认容量:16
DEFAULT_LOAD_ FACTOR: HashMap的默认加载因子:0.75
threshold:扩容的临界值,=容量*加载因子:16 * 0.75=>12
TREETFY_ THRESHOLD: Bucket中表长度大于该默认值,转化为红黑树:8
MIN_TREEIFY_CAPACITY:桶中Node被树化时最小的hash表容量:64
由上面在源码中的值可以看出,当数组中的元素到达12个时,就要开始扩容了,默认的加载因子是大数据计算出来的。太小了,数组很容易就需要扩容;太大了,有些地方可能永远用不到,链表就会过长。
- Map中的方法:
- 增:put(key,value) putAll(Map m)
- 删:remove(key) clear()//清空
- 改:put(key,value)
- 查:get(key) containsKey(key) containsValue(value) isEmpty()
- 长度:size()
- 遍历:keySet() / values() / entrySet()
增、删、改:
可以看到HashMap并不能按照我们添加的顺序输出,但是它的子类LinkedHashMap可以。
Map map1=new HashMap();
//增 put(添加一个元素)
map1.put(11,1);
map1.put("a1",2);
map1.put(12,3);
map1.put("a2",4);
System.out.println(map1); //{a1=2, a2=4, 11=1, 12=3}
//增 putAll(将一个map集合添加到另外一个map集合)
Map map2=new HashMap();
map2.putAll(map1);
System.out.println(map2); //{a1=2, a2=4, 11=1, 12=3}
//删 remove(删除一个元素)
map1.remove("a1");
System.out.println(map1); //{a2=4, 11=1, 12=3}
//删 clear(清空)
map2.clear();
System.out.println(map2); //{}
//改 put(这时候put就不是增加了,是覆盖原来的值)
map1.put("a2",999);
System.out.println(map1); //{a2=999, 11=1, 12=3}
查、长度、遍历:
Map map1=new HashMap();
//增 put(添加一个元素)
map1.put(11,1);
map1.put(-13,6);
map1.put("a1",2);
map1.put(12,3);
map1.put("a2",4);
System.out.println(map1); //{a1=2, a2=4, 11=1, -13=6, 12=3}
//查 get(查某个元素的value)
System.out.println(map1.get(11)); //1
//查 containsKey(判断某个key是否存在,存在返回true)
System.out.println(map1.containsKey(11)); //true
//查 containsValue(判断某个value是否存在,存在返回true)
System.out.println(map1.containsValue(11)); //false
//查 isEmpty(集合是否为空)
System.out.println(map1.isEmpty()); //false
//长度 size(返回entry的长度)
System.out.println(map1.size()); //5
//遍历
//根据key遍历
Set set = map1.keySet();
for (Object o:set){
System.out.println(o); //a1 a2 11 -13 12
}
//根据value遍历
Collection values = map1.values();
for (Object o:values){
System.out.println(o); //2 4 1 6 3
}
//根据entry遍历
Set set1 = map1.entrySet();
for (Object o:set1){
Map.Entry entry= (Map.Entry) o;
System.out.println(entry.getKey()+"---->"+entry.getValue());
//a1=>2 a2=>4 11=>1 -13=>6 12=>3
}
//有泛型的情况呢!
Map<String,Integer> map=new HashMap<>();
map.put("a",1);
map.put("c",3);
map.put("b",2);
Set<Map.Entry<String,Integer>> entrySet=map.entrySet();
Iterator<Map.Entry<String,Integer>> iterator=entrySet.iterator();
while (iterator.hasNext()){
Map.Entry<String,Integer> entry=iterator.next();
String key=entry.getKey();
Integer value=entry.getValue();
System.out.println(key+"---->"+value);
//a---->1 b---->2 c---->3
}
LinkedHashMap的底层原理(了解):
LinkedHashMap底层使用的结构和HashMap相同,因为LinkedHashMap继承于HashMap。区别在于:LinkedHashMap内部提供了Entry替换了HashMap中的Node。多了一对指向前后的Entry,所有能够遍历的我们put进去的顺序