OkHttp3源码分析[复用连接池]

2024-09-06 01:18

本文主要是介绍OkHttp3源码分析[复用连接池],希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

OkHttp系列文章如下

  • OkHttp3源码分析[综述]
  • OkHttp3源码分析[复用连接池]
  • OkHttp3源码分析[缓存策略]
  • OkHttp3源码分析[DiskLruCache]
  • OkHttp3源码分析[任务队列]

1. 概述

HTTP中的keepalive连接在网络性能优化中,对于延迟降低与速度提升的有非常重要的作用。

通常我们进行http连接时,首先进行tcp握手,然后传输数据,最后释放


图源: Nginx closed

这种方法的确简单,但是在复杂的网络内容中就不够用了,创建socket需要进行3次握手,而释放socket需要2次握手(或者是4次)。重复的连接与释放tcp连接就像每次仅仅挤1mm的牙膏就合上牙膏盖子接着再打开接着挤一样。而每次连接大概是TTL一次的时间(也就是ping一次),甚至在TLS环境下消耗的时间就更多了。很明显,当访问复杂网络时,延时(而不是带宽)将成为非常重要的因素。

当然,上面的问题早已经解决了,在http中有一种叫做keepalive connections的机制,它可以在传输数据后仍然保持连接,当客户端需要再次获取数据时,直接使用刚刚空闲下来的连接而不需要再次握手


图源: Nginx keep_alive

在现代浏览器中,一般同时开启6~8个keepalive connections的socket连接,并保持一定的链路生命,当不需要时再关闭;而在服务器中,一般是由软件根据负载情况进行配置。

Okhttp支持5个并发,默认链路生命为5分钟(链路空闲后,保持存活的时间)

当然keepalive也有缺点,在提高了单个客户端性能的同时,复用却阻碍了其他客户端的链路速度,具体来说如下

  1. 根据TCP的拥塞机制,当总水管大小固定时,如果存在大量空闲的keepalive connections(我们可以称作僵尸连接或者泄漏连接),其它客户端们的正常连接速度也会受到影响
  2. 服务器/防火墙上有并发限制,比如apache服务器只支持150个并发连接(数据来源于nginx官网),不过这个瓶颈随着高并发server软硬件的发展(golang/分布式)将会越来越少
  3. 大量的DDOS产生的僵尸连接可能被用于恶意攻击服务器,耗尽资源

好了,以上科普完毕,本文主要是写客户端的,服务端不再介绍。

下文假设服务器是经过专业的运维配置好的,它默认开启了keep-alive,并不主动关闭连接

2. 连接池的使用与分析

首先先说下源码中关键的对象:

  • Call: 对http的请求封装,属于上层高级代码
  • Connection: 对jdk的socket物理连接的包装,它内部有List<WeakReference<StreamAllocation>>的引用
  • StreamAllocation: 表示Connection被上层高级代码的引用次数
  • ConnectionPool: Socket连接池,对连接缓存进行回收与管理
  • Deque: Deque也就是双端队列,双端队列同时具有队列和栈性质,经常在缓存中被使用,这个是java基础

在okhttp中,连接池对用户,甚至开发者都是透明的。它自动创建连接池,自动进行泄漏连接回收,自动帮你管理线程池,提供了put/get/clear的接口,甚至调用都帮你写好了。

在以前的内存泄露分析文章中我写到,我们知道在socket连接中,也就是Connection中,本质是封装好的流操作,除非手动close,基本不会被gc掉,非常容易引发内存泄露。所以当涉及到并发socket编程时,我们就会非常紧张,往往写出来的代码都是try/catch/finally的迷之缩进,却又对这样的代码无可奈何。

在okhttp中,在高层代码的调用中,使用了类似于引用计数的方式跟踪流的调用,这里的计数对象是StreamAllocation,它被反复执行aquirerelease操作(点击函数可以进入github查看),这两个函数其实是在改变Connection中的List<WeakReference<StreamAllocation>>大小。List中Allocation的数量也就是物理socket被引用的计数(Refference Count),如果计数为0的话,说明此连接没有被使用,是空闲的,需要通过下文的算法实现回收;如果上层代码仍然引用,就不需要关闭连接。

引用计数法:给对象中添加一个引用计数器,每当有一个地方引用它时,计数器值就加1;当引用失效时,计数器值就减1;任何时刻计数器为0的对象就是不可能再被使用。它不能处理循环引用的问题。

2.1. 实例化

在源码中,我们先找ConnectionPool实例化的位置,它是直接new出来的,而它的各种操作却在OkHttpClient的static区实现了Internal.instance接口作为ConnectionPool的包装。

至于为什么需要这么多此一举的分层包装,主要是为了让外部包的成员访问非public方法,详见这里注释

2.2. 构造
  1. 连接池内部维护了一个叫做OkHttp ConnectionPoolThreadPool,专门用来淘汰末位的socket,当满足以下条件时,就会进行末位淘汰,非常像GC

     1. 并发socket空闲连接超过52. 某个socket的keepalive时间大于5分钟
  2. 维护着一个Deque<Connection>,提供get/put/remove等数据结构的功能

  3. 维护着一个RouteDatabase,它用来记录连接失败的Route的黑名单,当连接失败的时候就会把失败的线路加进去(本文不讨论)

2.3 put/get操作

在连接池中,提供如下的操作,这里可以看成是对deque的一个简单的包装

//从连接池中获取
get
//放入连接池
put
//线程变成空闲,并调用清理线程池
connectionBecameIdle
//关闭所有连接
evictAll

随着上述操作被更高级的对象调用,Connection中的StreamAllocation被不断的aquirerelease,也就是List<WeakReference<StreamAllocation>>的大小将时刻变化

2.4 Connection自动回收的实现

java内部有垃圾回收GC,okhttp有socket回收SocketClean;垃圾回收是根据对象的引用树实现的,而okhttp是根据RealConnection的虚引用StreamAllocation引用计数是否为0实现的。

cleanupRunnable:

当用户socket连接成功,向连接池中put新的socket时,回收函数会被主动调用,线程池就会执行cleanupRunnable,如下

//Socket清理的Runnable,每当put操作时,就会被调用
//注意put操作是在网络线程
//而Socket清理是在`OkHttp ConnectionPool`线程池中调用
while (true) {//执行清理并返回下场需要清理的时间long waitNanos = cleanup(System.nanoTime());if (waitNanos == -1) return;if (waitNanos > 0) {synchronized (ConnectionPool.this) {try {//在timeout内释放锁与时间片ConnectionPool.this.wait(TimeUnit.NANOSECONDS.toMillis(waitNanos));} catch (InterruptedException ignored) {}}}
}

这段死循环实际上是一个阻塞的清理任务,首先进行清理(clean),并返回下次需要清理的间隔时间,然后调用wait(timeout)进行等待以释放锁与时间片,当等待时间到了后,再次进行清理,并返回下次要清理的间隔时间...

Cleanup:

cleanup使用了类似于GC的标记-清除算法,也就是首先标记出最不活跃的连接(我们可以叫做泄漏连接,或者空闲连接),接着进行清除,流程如下:

long cleanup(long now) {int inUseConnectionCount = 0;int idleConnectionCount = 0;RealConnection longestIdleConnection = null;long longestIdleDurationNs = Long.MIN_VALUE;//遍历`Deque`中所有的`RealConnection`,标记泄漏的连接synchronized (this) {for (RealConnection connection : connections) {// 查询此连接内部StreamAllocation的引用数量if (pruneAndGetAllocationCount(connection, now) > 0) {inUseConnectionCount++;continue;}idleConnectionCount++;//选择排序法,标记出空闲连接long idleDurationNs = now - connection.idleAtNanos;if (idleDurationNs > longestIdleDurationNs) {longestIdleDurationNs = idleDurationNs;longestIdleConnection = connection;}}if (longestIdleDurationNs >= this.keepAliveDurationNs|| idleConnectionCount > this.maxIdleConnections) {//如果(`空闲socket连接超过5个`//且`keepalive时间大于5分钟`)//就将此泄漏连接从`Deque`中移除connections.remove(longestIdleConnection);} else if (idleConnectionCount > 0) {//返回此连接即将到期的时间,供下次清理//这里依据是在上文`connectionBecameIdle`中设定的计时return keepAliveDurationNs - longestIdleDurationNs;} else if (inUseConnectionCount > 0) {//全部都是活跃的连接,5分钟后再次清理return keepAliveDurationNs;} else {//没有任何连接,跳出循环cleanupRunning = false;return -1;}}//关闭连接,返回`0`,也就是立刻再次清理closeQuietly(longestIdleConnection.socket());return 0;
}
  1. 遍历Deque中所有的RealConnection,标记泄漏的连接
  2. 如果被标记的连接(空闲socket连接超过5个&&keepalive时间大于5分钟),就将此泄漏连接从Deque中移除,并关闭连接,返回0,也就是将要执行wait(0),提醒立刻再次扫描
  3. 如果(目前还可以塞得下5个连接,但是有可能泄漏的连接(即空闲时间即将达到5分钟)),就返回此连接即将到期的时间,供下次清理
  4. 如果(全部都是活跃的连接),就返回默认的keep-alive时间,也就是5分钟后再执行清理
  5. 如果(没有任何连接),就返回-1,跳出清理的死循环

再次注意:这里的“并发”==(“空闲”+“活跃”)==5,而不是说并发连接就一定是活跃的连接

pruneAndGetAllocationCount:

如何找到最不活跃的连接呢,这里使用了pruneAndGetAllocationCount的方法,它主要依据弱引用是否为null而判断这个连接是否泄漏

//类似于引用计数法,如果引用全部为空,返回立刻清理
private int pruneAndGetAllocationCount(RealConnection connection, long now) {//弱引用列表List<Reference<StreamAllocation>> references = connection.allocations;//遍历弱引用列表for (int i = 0; i < references.size(); ) {Reference<StreamAllocation> reference = references.get(i);//如果正在被使用,跳过,接着循环//是否置空是在上文`connectionBecameIdle`的`release`手动控制的if (reference.get() != null) {//非常明显的引用计数i++;continue;}//否则移除引用references.remove(i);connection.noNewStreams = true;//如果所有分配的流均没了,标记为已经距离现在空闲了5分钟if (references.isEmpty()) {connection.idleAtNanos = now - keepAliveDurationNs;return 0;}}return references.size();
}
  1. 遍历RealConnection连接中的StreamAllocationList,它维护着一个弱应用列表
  2. 查看此StreamAllocation是否为空(它是在线程池的put/remove手动控制的),如果为空,说明已经没有代码引用这个对象了,需要在List中删除
  3. 遍历结束,如果List中维护的StreamAllocation删空了,就返回0,表示这个连接已经没有代码引用了,是泄漏的连接;否则返回非0的值,表示这个仍然被引用,是活跃的连接。

总结

通过上面的分析,我们可以总结,okhttp使用了类似于引用计数法与标记擦除法的混合使用,当连接空闲或者释放时,StreamAllocation的数量会渐渐变成0,从而被线程池监测到并回收,这样就可以保持多个健康的keep-alive连接,Okhttp的黑科技就是这样实现的。

如果你期待更多高质量的文章,不妨关注我或者点赞吧!

Ref

  1. https://www.nginx.com/blog/http-keepalives-and-web-performance


文/BlackSwift(简书作者)
原文链接:http://www.jianshu.com/p/92a61357164b
著作权归作者所有,转载请联系作者获得授权,并标注“简书作者”。

这篇关于OkHttp3源码分析[复用连接池]的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1140583

相关文章

Redis主从/哨兵机制原理分析

《Redis主从/哨兵机制原理分析》本文介绍了Redis的主从复制和哨兵机制,主从复制实现了数据的热备份和负载均衡,而哨兵机制可以监控Redis集群,实现自动故障转移,哨兵机制通过监控、下线、选举和故... 目录一、主从复制1.1 什么是主从复制1.2 主从复制的作用1.3 主从复制原理1.3.1 全量复制

Redis主从复制的原理分析

《Redis主从复制的原理分析》Redis主从复制通过将数据镜像到多个从节点,实现高可用性和扩展性,主从复制包括初次全量同步和增量同步两个阶段,为优化复制性能,可以采用AOF持久化、调整复制超时时间、... 目录Redis主从复制的原理主从复制概述配置主从复制数据同步过程复制一致性与延迟故障转移机制监控与维

Redis连接失败:客户端IP不在白名单中的问题分析与解决方案

《Redis连接失败:客户端IP不在白名单中的问题分析与解决方案》在现代分布式系统中,Redis作为一种高性能的内存数据库,被广泛应用于缓存、消息队列、会话存储等场景,然而,在实际使用过程中,我们可能... 目录一、问题背景二、错误分析1. 错误信息解读2. 根本原因三、解决方案1. 将客户端IP添加到Re

Java汇编源码如何查看环境搭建

《Java汇编源码如何查看环境搭建》:本文主要介绍如何在IntelliJIDEA开发环境中搭建字节码和汇编环境,以便更好地进行代码调优和JVM学习,首先,介绍了如何配置IntelliJIDEA以方... 目录一、简介二、在IDEA开发环境中搭建汇编环境2.1 在IDEA中搭建字节码查看环境2.1.1 搭建步

Redis主从复制实现原理分析

《Redis主从复制实现原理分析》Redis主从复制通过Sync和CommandPropagate阶段实现数据同步,2.8版本后引入Psync指令,根据复制偏移量进行全量或部分同步,优化了数据传输效率... 目录Redis主DodMIK从复制实现原理实现原理Psync: 2.8版本后总结Redis主从复制实

锐捷和腾达哪个好? 两个品牌路由器对比分析

《锐捷和腾达哪个好?两个品牌路由器对比分析》在选择路由器时,Tenda和锐捷都是备受关注的品牌,各自有独特的产品特点和市场定位,选择哪个品牌的路由器更合适,实际上取决于你的具体需求和使用场景,我们从... 在选购路由器时,锐捷和腾达都是市场上备受关注的品牌,但它们的定位和特点却有所不同。锐捷更偏向企业级和专

Spring中Bean有关NullPointerException异常的原因分析

《Spring中Bean有关NullPointerException异常的原因分析》在Spring中使用@Autowired注解注入的bean不能在静态上下文中访问,否则会导致NullPointerE... 目录Spring中Bean有关NullPointerException异常的原因问题描述解决方案总结

python中的与时间相关的模块应用场景分析

《python中的与时间相关的模块应用场景分析》本文介绍了Python中与时间相关的几个重要模块:`time`、`datetime`、`calendar`、`timeit`、`pytz`和`dateu... 目录1. time 模块2. datetime 模块3. calendar 模块4. timeit

python-nmap实现python利用nmap进行扫描分析

《python-nmap实现python利用nmap进行扫描分析》Nmap是一个非常用的网络/端口扫描工具,如果想将nmap集成进你的工具里,可以使用python-nmap这个python库,它提供了... 目录前言python-nmap的基本使用PortScanner扫描PortScannerAsync异

Oracle数据库执行计划的查看与分析技巧

《Oracle数据库执行计划的查看与分析技巧》在Oracle数据库中,执行计划能够帮助我们深入了解SQL语句在数据库内部的执行细节,进而优化查询性能、提升系统效率,执行计划是Oracle数据库优化器为... 目录一、什么是执行计划二、查看执行计划的方法(一)使用 EXPLAIN PLAN 命令(二)通过 S