巨型页原理

2024-04-13 02:36
文章标签 原理 巨型

本文主要是介绍巨型页原理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

当运行内存需求量较大的应用程序时,如果使用长度位4KB的页,将会产生较多的TLB未命中和缺页异常,严重影响应用程序的性能;如果使用长度为2MB甚至更大的巨型页,可以大幅减少TLB未命中和缺页异常的数量,大幅提高应用程序的性能;这正是引入巨型页(Huge Page)的直接原因;
巨型页首先需要处理器能够支持,然后需要内核支持;

内核对巨型页的支持

内核有两种实现方式:
1)使用hugetlbfs伪文件系统实现巨型页;hugetlbfs文件系统是一个假的文件系统,只是利用了文件系统的编程接口;使用hugetlbfs文件系统实现的巨型页成为hugetlbfs巨型页、传统巨型页或者标准巨型页;
2)透明巨型页;标准巨型页的优点是预先分配巨型页到巨型页池,进程申请巨型页的时候从巨型页池取,成功的概率很高,缺点是应用程序需要使用文件系统的编程接口;透明巨型页的优点是对应用程序透明,缺点是动态分配,在内存碎片化的时候分配成功的概率很低;
本文主要介绍标准巨型页;

处理器对巨型页的支持

ARM64处理器支持巨型页的方式有两种:
1)通过块描述符支持;
2)通过页/块描述符的连续位支持;

通过块描述符支持巨型页

如下图所示,如果页长度是4KB,那么使用4级转换表,0级转换表不能使用块描述符,1级转换表的块描述符指向1GB巨型页,2级转换表的描述符指向2MB巨型页;
image.png

通过页/块描述符的连续位支持巨型页

页/块描述符中的连续位指示表项是一个连续表项集合中的一条表项,一个连续表项集合可以被缓存在一条TLB表项里面;
通俗地说,进程申请了n页地虚拟内存区域,然后申请了n页的物理内存区域,使用n个连续的页表项把每个虚拟页映射到物理页,每个页表项都设置连续标志位,当处理器的MMU遍历内存中的页表时,访问到该n个页表项中的任何一个页表项,发现页表项设置了连续标志位,就会把n个页表项合并后填充到一个TLB表项;
如果页长度时4KB,那么使用4级转换表,1级转换表的块描述符不能使用连续位;2级转换表的块描述符支持16个连续块,即支持16*2MB=32MB的巨型页;3级转换表的页描述符支持16个连续页,即支持16*4KB=64KB的巨型页;如下图所示:
image.png

标准巨型页

标准巨型页是预先分配巨型页到巨型页池,进程申请巨型页的时候从巨型页池取;通过文件“cat /proc/sys/vm/nr_hugepages”指定巨型页池中永久巨型页的数量;通过文件“cat /proc/sys/vm/nr_overcommit_hugepages”指定巨型页池中临时巨型页的数量;当永久巨型页使用完的时候,可以从页分配器申请临时巨型页;
nr_hugepages是巨型页池的最小长度;nr_hugepages+nr_overcommit_hugepages是巨型页池的最大长度,这两个参数默认值都是0,至少要设置一个,否则分配巨型页会失败;
cat /proc/meminfo可以查看巨型页信息;
image.png
HugePages_Total,巨型页池的大小;
HugePages_Free,巨型页池中没有分配的巨型页的数量;
HugePages_Rsvd,预留的巨型页,是已经承诺从巨型页池中分配但是还没有分配的巨型页的数量;预留的巨型页保证应用程序在发生缺页异常的时候能够从巨型页池中分配一个巨型页;
HugePages_Surp,Surplus,多余的,是巨型页池中临时巨型页的数量;临时巨型页的最大数量是nr_overcommit_hugepages;
HugePagesize,巨型页的大小;

巨型页池

内核使用巨型页池管理巨型页;有的处理器架构支持多种巨型页长度,没种巨型页长度对应一个巨型页池,有一个默认的巨型页长度,默认只创建巨型页长度是默认长度的巨型页池;如ARM64架构在页长度为4KB的时候支持的巨型页长度是1GB、32MB、2MB和64KB,默认巨型页长度是2MB,默认只创建巨型页长度是2MB的巨型页池;

struct hstate {int next_nid_to_alloc;int next_nid_to_free;unsigned int order;unsigned long mask;unsigned long max_huge_pages;unsigned long nr_huge_pages;unsigned long free_huge_pages;unsigned long resv_huge_pages;unsigned long surplus_huge_pages;unsigned long nr_overcommit_huge_pages;struct list_head hugepage_activelist;struct list_head hugepage_freelists[MAX_NUMNODES];unsigned int nr_huge_pages_node[MAX_NUMNODES];unsigned int free_huge_pages_node[MAX_NUMNODES];unsigned int surplus_huge_pages_node[MAX_NUMNODES];
#ifdef CONFIG_CGROUP_HUGETLB/* cgroup control files */struct cftype cgroup_files[5];
#endifchar name[HSTATE_NAME_LEN];
};
int hugetlb_max_hstate __read_mostly;
unsigned int default_hstate_idx;
struct hstate hstates[HUGE_MAX_HSTATE];

struct hstate,巨型页池的数据结构;
hstates,巨型页池全局数组;
hugetlb_max_hstate,巨型页池的数量;
default_hstate_idx,默认巨型页池的索引;

巨型页池中的巨型页分为两种:
1)永久巨型页:永久巨型页是保留的,不能有其他用途,被预先分配到巨型页池,当进程释放永久巨型页的时候,永久巨型页被归还到巨型页池;
2)临时巨型页:也称为多余的(surplus)巨型页,当永久巨型页用完的时候,可以从页分配器分配临时的巨型页;进程释放临时巨型页的时候,直接释放到页分配器;当设备长时间运行后,内存可能碎片化,分配临时巨型页可能失败;

hugetlb相当于hugepages的页面管理者,页面的分配及释放,都由此模块负责;
hugetlbfs则用于向用户提供一套基于文件系统的巨型页使用界面,下层功能的实现,主要依赖于hugetlb;

这篇关于巨型页原理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/898922

相关文章

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

hdu4407(容斥原理)

题意:给一串数字1,2,......n,两个操作:1、修改第k个数字,2、查询区间[l,r]中与n互质的数之和。 解题思路:咱一看,像线段树,但是如果用线段树做,那么每个区间一定要记录所有的素因子,这样会超内存。然后我就做不来了。后来看了题解,原来是用容斥原理来做的。还记得这道题目吗?求区间[1,r]中与p互质的数的个数,如果不会的话就先去做那题吧。现在这题是求区间[l,r]中与n互质的数的和

hdu4407容斥原理

题意: 有一个元素为 1~n 的数列{An},有2种操作(1000次): 1、求某段区间 [a,b] 中与 p 互质的数的和。 2、将数列中某个位置元素的值改变。 import java.io.BufferedInputStream;import java.io.BufferedReader;import java.io.IOException;import java.io.Inpu

hdu4059容斥原理

求1-n中与n互质的数的4次方之和 import java.io.BufferedInputStream;import java.io.BufferedReader;import java.io.IOException;import java.io.InputStream;import java.io.InputStreamReader;import java.io.PrintWrit

寻迹模块TCRT5000的应用原理和功能实现(基于STM32)

目录 概述 1 认识TCRT5000 1.1 模块介绍 1.2 电气特性 2 系统应用 2.1 系统架构 2.2 STM32Cube创建工程 3 功能实现 3.1 代码实现 3.2 源代码文件 4 功能测试 4.1 检测黑线状态 4.2 未检测黑线状态 概述 本文主要介绍TCRT5000模块的使用原理,包括该模块的硬件实现方式,电路实现原理,还使用STM32类

TL-Tomcat中长连接的底层源码原理实现

长连接:浏览器告诉tomcat不要将请求关掉。  如果不是长连接,tomcat响应后会告诉浏览器把这个连接关掉。    tomcat中有一个缓冲区  如果发送大批量数据后 又不处理  那么会堆积缓冲区 后面的请求会越来越慢。

PHP原理之内存管理中难懂的几个点

PHP的内存管理, 分为俩大部分, 第一部分是PHP自身的内存管理, 这部分主要的内容就是引用计数, 写时复制, 等等面向应用的层面的管理. 而第二部分就是今天我要介绍的, zend_alloc中描写的关于PHP自身的内存管理, 包括它是如何管理可用内存, 如何分配内存等. 另外, 为什么要写这个呢, 因为之前并没有任何资料来介绍PHP内存管理中使用的策略, 数据结构, 或者算法. 而在我们

Smarty模板执行原理

为了实现程序的业务逻辑和内容表现页面的分离从而提高开发速度,php 引入了模板引擎的概念,php 模板引擎里面最流行的可以说是smarty了,smarty因其功能强大而且速度快而被广大php web开发者所认可。本文将记录一下smarty模板引擎的工作执行原理,算是加深一下理解。 其实所有的模板引擎的工作原理是差不多的,无非就是在php程序里面用正则匹配将模板里面的标签替换为php代码从而将两者

Restful API 原理以及实现

先说说API 再说啥是RESRFUL API之前,咱先说说啥是API吧。API大家应该都知道吧,简称接口嘛。随着现在移动互联网的火爆,手机软件,也就是APP几乎快爆棚了。几乎任何一个网站或者应用都会出一款iOS或者Android APP,相比网页版的体验,APP确实各方面性能要好很多。 那么现在问题来了。比如QQ空间网站,如果我想获取一个用户发的说说列表。 QQ空间网站里面需要这个功能。

laravel框架实现redis分布式集群原理

在app/config/database.php中配置如下: 'redis' => array('cluster' => true,'default' => array('host' => '172.21.107.247','port' => 6379,),'redis1' => array('host' => '172.21.107.248','port' => 6379,),) 其中cl