并发容器(二):Concurrent类下的ConcurrentHashMap源码级解析

2024-06-16 20:12

本文主要是介绍并发容器(二):Concurrent类下的ConcurrentHashMap源码级解析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

并发容器-ConcurrentHashMap

    • 前言
    • 数据结构
      • JDK1.7版本
        • HashEntry
        • Segment
      • 初始化
    • 重要方法
      • Put方法
        • 扩容rehash方法

前言

之前我们在集合篇里聊完了HashMap和HashTable,我们又学习了并发编程的基本内容,现在我们来聊一聊Concurrent类下的重要容器,ConcurrentHashMap。
HashTable被逐渐废弃,离不开ConcurrentHashMap的出现,可以想象HashMap做为一个高频使用的集合框架,如果每次使用过程中都将整个方法synchronized,这样意味着全局加锁,肯定会导致并发的低效,所以ConcurrentHashMap的出现,改变了这种情况,接下来我们来看一看ConcurrentHashMap的神奇之处。

数据结构

JDK1.7版本

ConcurrentHashMap在JDK1.7中,提供了一种颗粒度更细的加锁机制.
这种机制叫分段锁(Lock Sriping).
整个哈希表被分为了多个段,每个段都能独立锁定.

机制的优点:读取操作不需要锁,写入操作仅锁定相关的段.这减小了锁冲突的概率,从而提高了并发性能.
在并发环境下实现更高的吞吐量,在单线程环境下只损失非常小的性能.
在这里插入图片描述
(图片转载自网络)

HashEntry
static final class HashEntry<K,V> {final int hash;final K key;volatile V value;volatile HashEntry<K,V> next;HashEntry(int hash, K key, V value, HashEntry<K,V> next) {this.hash = hash;this.key = key;this.value = value;this.next = next;}

这个老朋友我们在介绍HashMap的时候应该非常熟悉它了.不太明白的朋友可以翻看一下HashMap那一章.

Segment
static final class Segment<K,V> extends ReentrantLock implements Serializable {private static final long serialVersionUID = 2249069246763182397L;static final int MAX_SCAN_RETRIES =Runtime.getRuntime().availableProcessors() > 1 ? 64 : 1;transient volatile HashEntry<K,V>[] table;transient int count;transient int modCount;transient int threshold;final float loadFactor;Segment(float lf, int threshold, HashEntry<K,V>[] tab) {this.loadFactor = lf;this.threshold = threshold;this.table = tab;}
}

从上面代码可以看到,有一个volatile修饰的HashEntry数组
所以可以看出,Segment的结构和HashEntry是非常类似的,都是一种数据和链表相结合的结构.
即每个Segment守护着n个HashEntry,而每一个HashEntry本身可以当作一条链表连接n个HashEntry.

那么可以用图来表示一下segment和hashEntry的关系
在这里插入图片描述

初始化

public ConcurrentHashMap() {this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR, DEFAULT_CONCURRENCY_LEVEL);}

无参构造里面调用了有参构造,传入了三个参数的默认值,它们的值是:

// 默认初始化容量
static final int DEFAULT_INITIAL_CAPACITY = 16;// 默认负载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;// 默认并发级别
static final int DEFAULT_CONCURRENCY_LEVEL = 16;
我们可以看到,这个也是指segment数,默认是16.
    @SuppressWarnings("unchecked")public ConcurrentHashMap(int initialCapacity,float loadFactor, int concurrencyLevel) {//上来先做参数校验if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0)throw new IllegalArgumentException();//校验并发级别的大小,如果大于1<<16,重置为65536if (concurrencyLevel > MAX_SEGMENTS)concurrencyLevel = MAX_SEGMENTS;//2的多少次方int sshift = 0;int ssize = 1;//这个循环目的是可以找到concurrencyLevel之上最近的2的次方值while (ssize < concurrencyLevel) {++sshift;ssize <<= 1;}//记录偏移量this.segmentShift = 32 - sshift;//记录段掩码this.segmentMask = ssize - 1;//设置容量,如果大于最大值,则设置为最大值if (initialCapacity > MAXIMUM_CAPACITY)initialCapacity = MAXIMUM_CAPACITY;//平摊到每个segment中可以分到的大小,如果initialCapacity为64,那么每个segment可以分到4个//计算每个segment中类似HashMap的容量int c = initialCapacity / ssize;//如果c*ssize<initialCapacity,说明上面除的时候有余数,下面给c++就好啦if (c * ssize < initialCapacity)++c;//设置segment中最小的容量值,这里默认为2,确保插入一个不会扩容int cap = MIN_SEGMENT_TABLE_CAPACITY;//segment中类似于HashMap,容量至少为2或者2的倍数while (cap < c)cap <<= 1;// 创建 segments and segments[0]Segment<K,V> s0 =new Segment<K,V>(loadFactor, (int)(cap * loadFactor),(HashEntry<K,V>[])new HashEntry[cap]);Segment<K,V>[] ss = (Segment<K,V>[])new Segment[ssize];/往数组中写入segment[0]UNSAFE.putOrderedObject(ss, SBASE, s0); // ordered write of segments[0]this.segments = ss;}

重要方法

Put方法

 public V put(K key, V value) {Segment<K,V> s;//校验传入的value是否为空if (value == null)throw new NullPointerException();//根据传入的key计算出hash值int hash = hash(key);//根据hash值找到segment数组中位置j//hash值是32位,无符号右移segmentShift位,剩下高四位.//然后和segmentMask(15)做一次与操作,也就说说j是hash值的高四位,也就说槽点数组下标int j = (hash >>> segmentShift) & segmentMask;//这里使用unsave类的getObject方法从segment数组中检索段.//(j是要检索的段段索引//SSHIFT用于计算偏移量的位移量//SBASE用于计算基本偏移的基本偏移量//这里判断是否位null.如果是null则调用ensureSegment对segment[j]进行初始化if ((s = (Segment<K,V>)UNSAFE.getObject(segments, (j << SSHIFT) + SBASE)) == null) s = ensureSegment(j);//插入新值到槽s中return s.put(key, hash, value, false);}

然后继续看下一层的put代码

 final V put(K key, int hash, V value, boolean onlyIfAbsent) {//在往segment写入前,需要先获取该segment的独占锁HashEntry<K,V> node = tryLock() ? null : scanAndLockForPut(key, hash, value);V oldValue;try {//segment内部的数组HashEntry<K,V>[] tab = table;//利用hash值算出防止数组下标int index = (tab.length - 1) & hash;//first是数组该位置处链表的表头HashEntry<K,V> first = entryAt(tab, index);//这个for循环主要是考虑一些情况: 已经存在链表和没有任何元素这两种情况.for (HashEntry<K,V> e = first;;) {//此时e不为nullif (e != null) {K k;//复合赋值比较,用于检查当前节点的键是否与待插入键相同,并在比较的同时完成了一次赋值操作。//前面成立(即引用相等)时,确实后面不需要再判断,逻辑上已经确定了键相等。但如果设计中考虑到可能有内容相等但引用不同的情况,后面的判断仍然是必要的逻辑完整性的一部分,确保所有相等的情况都被正确处理。//扩展
/**引用相等:(k = e.key) == key 判断的是传入的键 key 和链表中节点的键 e.key 是否是同一个对象实例。如果它们是同一个对象(引用相同),那么直接就可以确认键相等,无需进一步比较。内容相等:但是,如果键是根据内容定义相等而不是引用(比如自定义的键类重写了 .equals() 方法),那么即使 == 返回 false,键的内容仍然可能相等(通过 .equals() 判断)。因此,(e.hash == hash && key.equals(k)) 部分是用来处理这种情况的,它确保即使两个键不是同一个实例,如果它们的内容相等(通过 .equals() 方法判断),也被视为相同的键。**/if ((k = e.key) == key || (e.hash == hash && key.equals(k))) oldValue = e.value;if (!onlyIfAbsent) {//覆盖e.value = value;++modCount;}break;}e = e.next;}else {//如果不为null,那么就把插入的值设置为链表表头(头插法)if (node != null)//这里设置一下引用节点node.setNext(first);//如果为null,初始化并设置为链表表头elsenode = new HashEntry<K,V>(hash, key, value, first);int c = count + 1;//如果超过segment的阈值,这个segment需要扩容if (c > threshold && tab.length < MAXIMUM_CAPACITY)rehash(node);else//如果没有达到阈值,将node放到数组tab的index位置//换句话说将新的节点设置为原链表的表头setEntryAt(tab, index, node);++modCount;count = c;oldValue = null;break;}}} finally {unlock();}return oldValue;}
扩容rehash方法
  private void rehash(HashEntry<K,V> node) {HashEntry<K,V>[] oldTable = table;//旧容量int oldCapacity = oldTable.length;//新容量,扩大2倍int newCapacity = oldCapacity << 1;//计算新的扩容阈值threshold = (int)(newCapacity * loadFactor);//创建新的数组HashEntry<K,V>[] newTable =(HashEntry<K,V>[]) new HashEntry[newCapacity];//计算新掩码 容量-1int sizeMask = newCapacity - 1;//遍历老数据for (int i = 0; i < oldCapacity ; i++) {HashEntry<K,V> e = oldTable[i];//如何能拿到值if (e != null) {HashEntry<K,V> next = e.next;//计算新位置,新位置只有两种情况:不变或者老位置+老容量int idx = e.hash & sizeMask;if (next == null)   //  Single node on list//当前位置不是链表只是元素,直接赋值newTable[idx] = e;else { // Reuse consecutive sequence at same slot//如果是链表HashEntry<K,V> lastRun = e;int lastIdx = idx;//这里的for循环目的是:找到一个特殊节点,这个节点后所有next节点的新位置都是相同的/**这块我再解释一下,容器扩容前后是只会有两个位置,一个新位置,一个旧位置,这里的计算是把放在新位置的索引的链表找出来啦,然后新位置的链表都是要放一起的.**/for (HashEntry<K,V> last = next;last != null;last = last.next) {int k = last.hash & sizeMask;if (k != lastIdx) {lastIdx = k;lastRun = last;}}//将lastRun及其之后的所有节点组成的链表放在lastIdx这个位置newTable[lastIdx] = lastRun;// 下面操作处理lastRun之前的节点//这些节点可能分配在另外一个链表上,也有可能分配到上面那个链表中for (HashEntry<K,V> p = e; p != lastRun; p = p.next) {V v = p.value;int h = p.hash;int k = h & sizeMask;HashEntry<K,V> n = newTable[k];newTable[k] = new HashEntry<K,V>(h, p.key, v, n);}}}}//新来的node放在新数组中刚刚两根链表之一的头部int nodeIndex = node.hash & sizeMask; // add the new nodenode.setNext(newTable[nodeIndex]);newTable[nodeIndex] = node;table = newTable;}

这篇关于并发容器(二):Concurrent类下的ConcurrentHashMap源码级解析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1067430

相关文章

深度解析Java DTO(最新推荐)

《深度解析JavaDTO(最新推荐)》DTO(DataTransferObject)是一种用于在不同层(如Controller层、Service层)之间传输数据的对象设计模式,其核心目的是封装数据,... 目录一、什么是DTO?DTO的核心特点:二、为什么需要DTO?(对比Entity)三、实际应用场景解析

深度解析Java项目中包和包之间的联系

《深度解析Java项目中包和包之间的联系》文章浏览阅读850次,点赞13次,收藏8次。本文详细介绍了Java分层架构中的几个关键包:DTO、Controller、Service和Mapper。_jav... 目录前言一、各大包1.DTO1.1、DTO的核心用途1.2. DTO与实体类(Entity)的区别1

Java中的雪花算法Snowflake解析与实践技巧

《Java中的雪花算法Snowflake解析与实践技巧》本文解析了雪花算法的原理、Java实现及生产实践,涵盖ID结构、位运算技巧、时钟回拨处理、WorkerId分配等关键点,并探讨了百度UidGen... 目录一、雪花算法核心原理1.1 算法起源1.2 ID结构详解1.3 核心特性二、Java实现解析2.

使用Python绘制3D堆叠条形图全解析

《使用Python绘制3D堆叠条形图全解析》在数据可视化的工具箱里,3D图表总能带来眼前一亮的效果,本文就来和大家聊聊如何使用Python实现绘制3D堆叠条形图,感兴趣的小伙伴可以了解下... 目录为什么选择 3D 堆叠条形图代码实现:从数据到 3D 世界的搭建核心代码逐行解析细节优化应用场景:3D 堆叠图

深度解析Python装饰器常见用法与进阶技巧

《深度解析Python装饰器常见用法与进阶技巧》Python装饰器(Decorator)是提升代码可读性与复用性的强大工具,本文将深入解析Python装饰器的原理,常见用法,进阶技巧与最佳实践,希望可... 目录装饰器的基本原理函数装饰器的常见用法带参数的装饰器类装饰器与方法装饰器装饰器的嵌套与组合进阶技巧

c++中的set容器介绍及操作大全

《c++中的set容器介绍及操作大全》:本文主要介绍c++中的set容器介绍及操作大全,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录​​一、核心特性​​️ ​​二、基本操作​​​​1. 初始化与赋值​​​​2. 增删查操作​​​​3. 遍历方

解析C++11 static_assert及与Boost库的关联从入门到精通

《解析C++11static_assert及与Boost库的关联从入门到精通》static_assert是C++中强大的编译时验证工具,它能够在编译阶段拦截不符合预期的类型或值,增强代码的健壮性,通... 目录一、背景知识:传统断言方法的局限性1.1 assert宏1.2 #error指令1.3 第三方解决

全面解析MySQL索引长度限制问题与解决方案

《全面解析MySQL索引长度限制问题与解决方案》MySQL对索引长度设限是为了保持高效的数据检索性能,这个限制不是MySQL的缺陷,而是数据库设计中的权衡结果,下面我们就来看看如何解决这一问题吧... 目录引言:为什么会有索引键长度问题?一、问题根源深度解析mysql索引长度限制原理实际场景示例二、五大解决

深度解析Spring Boot拦截器Interceptor与过滤器Filter的区别与实战指南

《深度解析SpringBoot拦截器Interceptor与过滤器Filter的区别与实战指南》本文深度解析SpringBoot中拦截器与过滤器的区别,涵盖执行顺序、依赖关系、异常处理等核心差异,并... 目录Spring Boot拦截器(Interceptor)与过滤器(Filter)深度解析:区别、实现

深度解析Spring AOP @Aspect 原理、实战与最佳实践教程

《深度解析SpringAOP@Aspect原理、实战与最佳实践教程》文章系统讲解了SpringAOP核心概念、实现方式及原理,涵盖横切关注点分离、代理机制(JDK/CGLIB)、切入点类型、性能... 目录1. @ASPect 核心概念1.1 AOP 编程范式1.2 @Aspect 关键特性2. 完整代码实