博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
HashMap的工作原理
阅读量:7053 次
发布时间:2019-06-28

本文共 3636 字,大约阅读时间需要 12 分钟。

hot3.png

HashMap是近些年来java面试中常问到的知识点,很多人(包括我在内)都知道HashMap的用法,也知道HashMap与HashTable之间的区别,但是却不知其所以然,于是乎,本人开始查阅相关资料,解读HashMap的实现源代码,打算一探究竟。

一、HashMap的基本了解

      基本定义:根据源代码的描述可知,HashMap是基于哈希表的Map接口的实现,其包含了Map接口的所有映射操作,并且允许使用null键和null值。

      与HashTable的区别:HashMap可以近似地看成是HashTable,但是它是非线程安全的,并且允许使用null键和null值,而这些都与HashTable恰巧相反。注:HashMap可以使用ConcurrentHashMap代替,ConcurrentHashMap是一个线程安全,更加快速的HashMap,欲了解ConcurrentHashMap,可点击

      存储结构:HashMap的存储结构其实就是哈希表的存储结构(由数组与链表结合组成,称为链表的数组)。如下图所示:

 

如上图所示,HashMap中元素存储的形式是键-值对(key-value对,即Entry对),所有具有相同hashcode值的键(key)所对应的entry对会被链接起来组成一条链表,而数组的作用则是存储链表中第一个结点的地址值。

二、影响HashMap性能的因素

      在HashMap中,还存在着两个概念,桶(buckets)加载因子(load factor)。

      桶(buckets):上图中的标有0、1、2、3、….、11所对应的数组空间就是一个个桶。

      加载因子(load factor):是哈希表在其容量自动增加之前可以达到多满的一种尺度,默认值是0.75。

      根据源代码中所述,影响HashMap性能有两个因素:哈希表中的初始化容量(桶的数量)和加载因子。当哈希表中条目数超过了当前容量与加载因子的乘积时,哈希表将会作出自我调整,将容量扩充为原来的两倍,并且重新将原有的元素重新映射到表中,这一过程成为rehash。看到这里,相必大家会发现rehash操作是会造成时间与空间的开销的,因此为什么初始化容量与加载因子会影响HashMap的性能也就可以理解了。

      代码示例1.添加键-值对的java源代码:

void addEntry(int hash, K key, V value, int bucketIndex) {	Entry
e = table[bucketIndex]; //找到元素要插入的桶 table[bucketIndex] = new Entry
(hash, key, value, e); if (size++ >= threshold) //threshold的值为当前容量*加载因子(0.75) resize(2 * table.length); //将HashMap的容量扩充为当前容量的两倍 }

      代码示例2.扩充HashMap实例容量源代码:

void resize(int newCapacity) {        Entry[] oldTable = table;        int oldCapacity = oldTable.length;        if (oldCapacity == MAXIMUM_CAPACITY) {            threshold = Integer.MAX_VALUE;            return;        }        Entry[] newTable = new Entry[newCapacity];	//重新定义新容量的Entry对        transfer(newTable);							//rehash操作,将旧表中的元素重新映射到新表中        table = newTable;        threshold = (int)(newCapacity * loadFactor);//新的临界值为新的容量*加载因子    }

三、put/get方法实现原理

      put操作:HashMap在进行put操作的时候,会首先调用Key值中的hashCode()方法,用于获取对应的bucket的下标值以便存放数据。具体操作可以参照如下的java源代码:

      代码示例3.put方法的java源代码:

public V put(K key, V value) {        if (key == null)            return putForNullKey(value);        int hash = hash(key.hashCode());        int i = indexFor(hash, table .length );        for (Entry
e = table[i]; e != null; e = e. next) { Object k; if (e. hash == hash && ((k = e. key) == key || key.equals(k))) { V oldValue = e. value; e. value = value; e.recordAccess( this); return oldValue; } } modCount++; addEntry(hash, key, value, i); return null; }

       正如上述代码所示,HashMap通过key值的hashcode获得了对应的bucket存储空间的下标,然后进入bucket空间,通过链表遍历的方式逐个查询,看看链表中是否已经存在了这个key的键-值对,如果已经存在则用新值替换旧值,否则插入新的键-值对。看到这里,相信大家会发现,hashCode值相同的两个值可能是不同的两个对象,而当put进去的是另一个hashCode值相等的对象时,会发生冲突,而在HashMap中解决这种冲突的方法就是将hashCode值相同的key值所对应的key-value对串联成一条链表,请见上面的HashMap数据结构图。

      get操作:HashMap在进行get操作的时候,与put方法类似,会首先调用Key值中的hashCode()方法,用于获取对应的bucket的下标值,找到bucket的位置后,再通过key.equals()方法找到对应的键-值对,从而获得对应的value值。java源代码如下:

       代码示例4.get方法的java源代码:

public V get(Object key) {        if (key == null)            return getForNullKey();        int hash = hash(key.hashCode());        for (Entry
e = table[ indexFor(hash, table.length)]; e != null; e = e. next) { Object k; if (e. hash == hash && ((k = e. key) == key || key.equals(k))) return e. value; } return null;}

 

      总结:HashMap是基于hashing原理对key-value对进行存储与获取,当使用put()方法添加key-value对时,它会首先检查hashCode的值,并以此获得对应的bucket位置进行存储,当发生冲突时(hashcode值相同的两个不同key),新的key-value对会以结点的形式添加到链表的末尾。而使用get()方法时,同样地会根据key的hashCode值找到相应的bucket位置,再通过key.equals()方法找到对应的key-value对,最终成功获取value值。

转载于:https://my.oschina.net/boxizen/blog/177744

你可能感兴趣的文章
IOS公司开发者账号申请详细教程
查看>>
ubuntu12.04 安装配置 mysql
查看>>
我的友情链接
查看>>
关于两容器倒水问题的感悟(ACM)
查看>>
Scala Pattern Match之Regular Expressions
查看>>
大型网站技术架构(一)大型网站架构演化
查看>>
Java基础学习总结(16)——Java制作证书的工具keytool用法总结
查看>>
ORACLE 绑定变量用法总结
查看>>
ssh证书登录
查看>>
Swoole学习笔记(五):多协议多端口
查看>>
211学院的小胖子钟情好程序员
查看>>
linux双网卡绑定
查看>>
表格操作
查看>>
用python读写excel文件
查看>>
【Enterprise Manager 12c】如何在EM 12c中配置Exadata Infiniband告警邮件
查看>>
盆盆的11年Microsoft MVP心路历程
查看>>
利用kickstart实现pxe自动安装
查看>>
推荐一个spring的demo网站
查看>>
如何利用互联网工具调研网站
查看>>
最新 Hadoop 视频分享
查看>>