百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

炸裂,大神图解JDK容器三大将之——哈希表(HashMap)

liuian 2025-05-27 15:53 15 浏览

作者:JackpotDC

链接:
https://juejin.im/post/6861544032859127822

JDK容器三大将

任何一项新的技术、一种新的语言本质上都是算法+数据结构。任何技术的选型本质上都是在基于业务和硬件条件的充分理解,采用合适的数据结构、适当的算法以达到资源和效率的最优解。Java开发亦是如此,工欲善其事,必先利其器,想要使用Java这种语言开发好程序,就必须选择合适的数据结构来进行开发。JDK容器则是所有Java应用开发的基础,不论是业务代码,还是各种知名的Java开源项目(如异步网络框架netty、容器管理框架Spring、分布式计算框架Hadoop、搜索引擎框架Elastic Search),全都是大量在JDK容器的基础上进行开发。而JDK容器作为这些优秀开源项目的默认选择,必然有其优势,本文将分析下JDK容器三大将之哈希表。

JDK容器三大将:List、Set、Map

HashMap介绍

所有编程语言都躲不开数据结构原理中的几种经典结构,链表、线性表、哈希表等。哈希表以其O(1) 的查找耗时在查找速度方面傲视群雄,Java中哈希表的实现即HashMap类。 (原JDK中还有一个Hashtable类,由于put和get操作都加了synchronized锁导致单线程性能差,多线程又有基于分段锁的ConcurrentHashMap作为更好的选择,官方已经声明不再维护)

先来看下HashMap的继承关系图如下

  • Map接口为实现类暴露了一系列方法,AbstractMap抽象类为Map的一些基础功能提供了简单实现
  • Cloneable表示该类支持通过java.lang.Object#clone()方法克隆,clone方法相关的细节(浅拷贝、深拷贝)读者可以搜索相关关键字阅读
  • Serializable接口表示该类支持Java自带序列化功能进行序列化

HashMap的数据结构

HashMap的数据结构如下图

下面分别来介绍下图中的几个概念:

  • size,存着HashMap当前的大小,执行hashMap.size()时直接在O(1)的时间返回哈希表的大小,如图有着三个键值对,所以size=3
  • modCount,记录哈希表结构变更的次数,用于在HashMap结构变更时能够快速失败,后面会详细介绍
  • table,是一个Node数组(默认大小16),Node是HashMap的内部定义类,结构如图,保存着一对键值对。当执行map.put(k, v)命令时会根据k的哈希值映射到Node数组的某个位置,并且通过拉链法处理哈希冲突
  • loadFactor、threshold,分别为装载因子(默认0.75)和阈值(Node.length * 装载因子),当HashMap的容量(即size)超过阈值时会触发rehash,对Node数组进行扩容

HashMap的put/get操作执行过程

put()

HashMap的put操作的执行过程伪代码如下

void put(key, value) {
    index = hash(key);
    if(table[index] == null)
        table[index] = newNode(key, value); // 节点没有hash冲突时将该kv录入节点
    else
        insertIntoLastNode(table[index], key, value); // 节点hash冲突时写入拉链的最后
}
复制代码
  1. 当hash冲突写入拉链时,HashMap有着一个常量TREEIFY_THRESHOLD=8,当拉链长度超过阈值后链表会升级为红黑树
  2. 上文提到过的参数threshold = Node.length * 装载因子,当put完的哈希表节点总数达到Node数组容量的0.75时会触发扩容

get()

HashMap的get操作执行过程的伪代码如下,都是经典的拉链法哈希查找的步骤

V get(key) {
    index = hash(key);
    if(table[index].key.hash == key.hash && table[index] == key)
        return table[index].value; // 如上图中Node[2]定位到的第一个Node,如果对比相等,则返回value
    else
        return findNodeOrNullFromList(key); // 从拉链中查找该key的值
}
复制代码

查找时同样也会需要根据当前是链表还是红黑树走不同的查询逻辑

HashMap的扩容过程

接下来重点看下HashMap的扩容过程,上文提到,HashMap在put的时候,如果put完的哈希表节点总数达到threshold,则会进行HashMap的扩容,扩容的操作过程如下图:

resize的展开过程如下:

  1. 开辟一个新的table数组,大小是原来的2倍,即table[32]
  2. 如果当前节点没有哈希冲突,则直接重新计算该节点的table[]数组下标位置并且放入
  3. 如果当前节点是红黑树,则执行红黑树的split操作将红黑树拆成两半,如果拆分后的大小小于了TREEIFY_THRESHOLD阈值的话,降级为链表
  4. 如果当前节点是链表,则根据当前节点的hash & oldTable.size(如本例中为16),根据结果为0(low链表)或1(high链表)拆分为两个链表,也就是根据16的二进制位(1_0000)从右往左数第5位
  • low链表,即节点.hash & 16 == 0,即节点.hash第5位为0的节点保持原下标
  • high链表,即节点.hash & 16 == 1,即节点.hash第5位为1的节点下标=原下标+16

下图展示了扩容时链表的大致拆分过程

HashMap的modCount以及使用注意

如前文所述,HashMap内部维护着一个成员变量modCount,在HashMap每次进行可能影响HashMap结构的操作时都会导致modCount++(例如put、remove) 这样做是因为HashMap是不支持线程安全的,如果你的代码在遍历HashMap的同时又在修改影响着HashMap的内容,必然会导致遍历出的结果不正确,与其拿到不正确结果导致后续基于这个错误结果的一系列错误,不如快速掀桌子抛出异常
ConcurrentModificationException结束这次遍历,这个就是
快速失败(FailFast),其它相关的异常容错机制还有failover(失效转移)、failback(失效自动回复)等,感兴趣的读者可以自行搜索。


通过上文可以知道,modCount主要是遍历请求受到影响时的处理方式,但是我们的代码中经常会遇到一种经典的执行情况,如下

for(K key : map.keySet()) {
    if(key == xxx)
        map.remove(key); // 执行完后下一轮for循环抛出ConcurrentModificationException
}
复制代码

这种时候我们是在一个单线程中,我们的目的是删掉符合判断条件的节点然后继续遍历Map,但是这样会导致代码抛出
ConcurrentModificationException异常,就是因为在执行了map.remove(key)之后modCount++,进而导致遍历开始前记录的 expectModCount != modCount,从而抛出异常 解决的办法是通过iterator.remove()删除节点

Iterator iter = map.entrySet().iterator();
while(iter.hasNext()) {
    Entry entry = iter.next();
    if(entry.key == xxx)
        iter.remove();
}
复制代码

HashMap的keySet和entrySet

在我们日常开发中经常需要对HashMap进行遍历,常用遍历方式有两种:keySet()和entrySet()。 这两种遍历方式返回的Set集合本质上都是HashMap的一个视图,这个Set本身是不存储数据的,只是它覆写了相关的iterator、contains等方法,这些方法又会去对HashMap中的table数组进行相关的查询等操作。 当我们对keySet()和entrySet()返回的Set集合进行add操作时会抛出
UnsupportedOperationException。

高性能的并发哈希表--ConcurrentHashMap

以上讨论的HashMap是JDK在Hashtable的改进上实现了高性能的单线程版的哈希实现,这在我们日常其实已经能够处理很多场景,甚至于当你所需的HashMap需要实现线程隔离的时候也可以通过ThreadLocal来实现(详见 图解分析ThreadLocal的原理与应用场景)

但是某些场景的哈希表不得不在多个线程之间共享,这些线程有可能同时读某一个key,同时改某一个key,一个在读某个key的时候另一个却在改这个key,面对这种情况HashMap只能掀桌子了,但是我们总还是需要一种支持多线程的高效的哈希数据结构,

ConcurrentHashMap:“没错,正式在下”。

关于ConcurrentHashMap的高并发哈希实现原理会在下篇文章分析。

相关推荐

总结下SpringData JPA 的常用语法

SpringDataJPA常用有两种写法,一个是用Jpa自带方法进行CRUD,适合简单查询场景、例如查询全部数据、根据某个字段查询,根据某字段排序等等。另一种是使用注解方式,@Query、@Modi...

解决JPA在多线程中事务无法生效的问题

在使用SpringBoot2.x和JPA的过程中,如果在多线程环境下发现查询方法(如@Query或findAll)以及事务(如@Transactional)无法生效,通常是由于S...

PostgreSQL系列(一):数据类型和基本类型转换

自从厂子里出来后,数据库的主力就从Oracle变成MySQL了。有一说一哈,贵确实是有贵的道理,不是开源能比的。后面的工作里面基本上就是主MySQL,辅MongoDB、ES等NoSQL。最近想写一点跟...

基于MCP实现text2sql

目的:基于MCP实现text2sql能力参考:https://blog.csdn.net/hacker_Lees/article/details/146426392服务端#选用开源的MySQLMCP...

ORACLE 错误代码及解决办法

ORA-00001:违反唯一约束条件(.)错误说明:当在唯一索引所对应的列上键入重复值时,会触发此异常。ORA-00017:请求会话以设置跟踪事件ORA-00018:超出最大会话数ORA-00...

从 SQLite 到 DuckDB:查询快 5 倍,存储减少 80%

作者丨Trace译者丨明知山策划丨李冬梅Trace从一开始就使用SQLite将所有数据存储在用户设备上。这是一个非常不错的选择——SQLite高度可靠,并且多种编程语言都提供了广泛支持...

010:通过 MCP PostgreSQL 安全访问数据

项目简介提供对PostgreSQL数据库的只读访问功能。该服务器允许大型语言模型(LLMs)检查数据库的模式结构,并执行只读查询操作。核心功能提供对PostgreSQL数据库的只读访问允许L...

发现了一个好用且免费的SQL数据库工具(DBeaver)

缘起最近Ai不是大火么,想着自己也弄一些开源的框架来捣腾一下。手上用着Mac,但Mac都没有显卡的,对于学习Ai训练模型不方便,所以最近新购入了一台4090的拯救者,打算用来好好学习一下Ai(呸,以上...

微软发布.NET 10首个预览版:JIT编译器再进化、跨平台开发更流畅

IT之家2月26日消息,微软.NET团队昨日(2月25日)发布博文,宣布推出.NET10首个预览版更新,重点改进.NETRuntime、SDK、libraries、C#、AS...

数据库管理工具Navicat Premium最新版发布啦

管理多个数据库要么需要使用多个客户端应用程序,要么找到一个可以容纳你使用的所有数据库的应用程序。其中一个工具是NavicatPremium。它不仅支持大多数主要的数据库管理系统(DBMS),而且它...

50+AI新品齐发,微软Build放大招:拥抱Agent胜算几何?

北京时间5月20日凌晨,如果你打开微软Build2025开发者大会的直播,最先吸引你的可能不是一场原本属于AI和开发者的技术盛会,而是开场不久后的尴尬一幕:一边是几位微软员工在台下大...

揭秘:一条SQL语句的执行过程是怎么样的?

数据库系统能够接受SQL语句,并返回数据查询的结果,或者对数据库中的数据进行修改,可以说几乎每个程序员都使用过它。而MySQL又是目前使用最广泛的数据库。所以,解析一下MySQL编译并执行...

各家sql工具,都闹过哪些乐子?

相信这些sql工具,大家都不陌生吧,它们在业内绝对算得上第一梯队的产品了,但是你知道,他们都闹过什么乐子吗?首先登场的是Navicat,这款强大的数据库管理工具,曾经让一位程序员朋友“火”了一把。Na...

详解PG数据库管理工具--pgadmin工具、安装部署及相关功能

概述今天主要介绍一下PG数据库管理工具--pgadmin,一起来看看吧~一、介绍pgAdmin4是一款为PostgreSQL设计的可靠和全面的数据库设计和管理软件,它允许连接到特定的数据库,创建表和...

Enpass for Mac(跨平台密码管理软件)

还在寻找密码管理软件吗?密码管理软件有很多,但是综合素质相当优秀且完全免费的密码管理软件却并不常见,EnpassMac版是一款免费跨平台密码管理软件,可以通过这款软件高效安全的保护密码文件,而且可以...