电子科大操作系统期末复习之存储器管理

2023-11-08 18:20

本文主要是介绍电子科大操作系统期末复习之存储器管理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

获得更好的阅读体验,戳博客原文:操作系统期末复习之存储器管理

存储器管理

操作系统的职能之一,主要任务是为多道程序的运行提供良好的环境,方便用户使用存储器,提高存储器的利用率以及能从逻辑上扩充内存。主要目的和功能:

1、主存储器的分配和管理

2、提高主存储器的利用率

3、“扩充”主存容量

4、存储保护

存储器的层次结构

主存储器

用于保存进程运行时的程序和数据。CPU的 控制部件只能从主存中取得指令和数据到CPU寄 存器,同样,CPU寄存器中的数据可存入主存。 CPU与外设交换数据必须依托于主存。

寄存器

寄存器访问速度最快,能与CPU协调工作,价格昂贵,容量不大,寄存器用于加速存储器的访问速度,如用寄存器存放操作数,或用作地址寄存器加快地址转换速度等。

高速缓存

​ CPU对高速缓存的访问,其速度比访问主存快,比访问寄存器慢。 根据程序执行的局部性原理,将主存中一些经常访问的数据存放在高速缓存中,减少访问主存的次数,提高程序的执行速度。 有些计算机系统设置了两级高速缓存,即,一级高速缓存与二级高速缓存。cpu访问一级高速缓存最快。(i9 12900K,三级缓存:30MB)

磁盘缓存

内存中一块存储区,对应于某固定磁盘,临时存储磁盘数据(如,数据预取)。磁盘的IO速度远低于对主存的访问速度,因此将频繁使用的一部分磁盘数据和信息暂时存放在磁盘缓存中,可减少访问磁盘的次数,磁盘缓存本身并不是一种实际存在的存储介质,它依托于固定磁盘,提供对主存储器空间的扩充,即利用主存中的存储空间,来暂存从磁盘中读出或写入的信息,主存可以看做是辅存的高速缓存,因为,辅存中的数据必须复制到主存方能使用,反之,数据也必须先存在主存中,才能输出到辅存。

速度:寄存器>高速缓存>主存>磁盘缓存
容量:寄存器<高速缓存<主存<磁盘缓存
价格:寄存器>高速缓存>主存>磁盘缓存

存储分配的三种方式

1.直接指定方式:程序员在编程序时,或编译程序(汇编程序)对源程序进行编译(汇编)时,使用实际存储地址。

2.静态分配方式(Static Allocation) : 用户在编程时,或由编译程序产生的目的程序,均可从其地址空间的零地址开始;当装配程序对其进行连接装入时才确定它们在主存中的相应位置,从而生成可执行程序。也就是说,存储分配是在装入时实现的。

3.动态分配方式(Dynamic Allocation): 动态分配是一种更加有效的使用主存储器的方法。 这种动态存储分配方式的特点是:

(1)作业在存储空间中的位置,也是在其装入时确定的;
(2)在其执行过程中可根据需要申请附加的存储空间;
(3)一个作业已占用的部分存储区域不再需要时,可以要求归还给系统。

关于名空间,地址空间(逻辑地址集合,虚),存储空间(物理地址集合,实)的理解:

程序的装入和链接

​ 为了使程序能够运行,必须先为之创建进程,而创建进程的第一件事,就是将程序和数据装入内存,如何将一个用户源程序变为一个可在内存中执行的程序,通常要经过如下几步,首先是编译(由编译程序将用户源代码编译成若干个目标模块),其次是链接(由链接程序将编译后形成的一组目标模块,以及它们所需要的库函数链接在一起,形成一个完整的装入模块),最后是装入(由装入程序将装入模块装入内存)。

程序的装入

绝对装入方式,如果在编译时知道程序驻留在内存的什么位置,那么,编译程序将产生绝对地址的目标代码,绝对装入方式按照装入模块中的地址,将程序和数据装入内存,装入模块被装入内存后,由于程序中的逻辑地址与实际内存地址完全相同,故不需要对程序和数据的地址进行修改。

可重定位装入方式,绝对装入方式只适用于单道程序环境,在多道程序环境下(编译程序不可能事先知道所编译的目标模块应放在内存的何处),所得到的目标模块的起始地址通常都是以0开始的,程序中的其他地址也都是相对于起始地址计算的,此时应采用可重定位装入方式,根据内存的当前情况,将装入模块装入到内存的适当位置。该方式会使装入模块中的所有逻辑地址与实际装入内存的物理地址不同,需要对数据地址和指令地址进行修改,通常把再装入时对目标程序中指令和数据的修改过程称为重定位。

静态重定位

地址变换是在装入内存时一次完成的,且以后不能移动。 一般情况下,物理地址=相对地址+内存中的起始地址,适用于多道程序环境,可以将装入模块装入到内存中任何允许的位置。

动态重定位

装入程序将装入模块装入内存后,并不立即把装入模块中的相对地址转换为绝对地址,而是把这种地址转换推迟到程序执行时进行。在硬件地址变换机构的支持下,随着对每条指令或数据的访问自动进行地址变换。利用一个重定位寄存器(RR)来实现。

程序的链接

静态链接,在程序运行之前,先将各目标模块及它们所需的库函数,链接成一个

完整的装入模块(又称执行模块),需要对相对地址进行修改(由于编译程序产生的所有目标模块中,使用的都是相对地址,其起始地址都为0,每个模块中的地址都是相对于起始地址计算的)。也需要变换外部调用符号(将每个模块中所用的外部调用符号都变换为相对地址),这种先进行链接所形成的一个完整的装入模块,又称为可执行文件,通常都不再拆开它,要运行时可直接将它装入内存。

装入时动态链接,用户源程序经编译后所得是目标模块,是在装入内存时边装入边链接的,即在装入一个目标模块时,若发生一个外部模块调用事件,将引起装入程序去找出相应的外部目标模块,并将它装入内存,装入时动态链接有如下优点,便于修改和更新(各目标模块是分开的存放的,所以要修改或更新各目标模块非常容易),便于实现对目标模块的共享(很容易将一个目标模块链接到几个应用模块上,实现多个应用程序对该模块的共享)。

采用装入时动态链接方式,虽然可将一个装入模块装入 到内存的任何地方,但装入模块的结构是静态的,表现在: 1. 进程(程序)在整个执行期间,装入模块是不改变的; 2. 每次运行时的装入模块是相同的。并且事先无法知道本次 要运行哪些模块,只能将所有可能要运行的模块在装入时 全部链接在一起,而实际上往往有些目标模块根本不会运 行。

运行时动态链接,将某些模块的链接推迟到程序执行时才进行链接,即在执行过程中,当发现一个被调用模块尚未装入内存时,立即由OS去找到该模块并将之装入内存,把它链接到调用者模块上,凡在执行过程中未被调用到的模块,都不会被调入内存和被链接到装入模块上,这样不仅加快程序的装入过程,同时也节省了大量的内存空间。

运行时动态链接是目前最常使用的链接方式

连续分配存储管理方式

连续分配方式

单一连续分配

这是一种最简单的存储管理方式,但只能在单用户、单任务的操作系统中,将内存分为系统区和用户区,系统区供OS使用,通常放在内存的低地址,用户区是指除系统区以外的全部内存空间,提供给用户使用。

固定分区分配

固定分区分配是一种最简单的可运行多道程序的存储管理方式,将内存用户空间划分为若干个固定大小的区域,在每个分区只装入一道作业,这样,便允许多道作业并发执行,当有空闲分区时,便可以再从外存的后备作业队列中选择一个适当大小的作业装入该分区,当该作业结束时,又可再从后备作业队列中找出另一作业调入该分区。

对于内存的用户空间的划分,有如下两种方法。

① 分区大小相等,即所有的内存分区大小相等。缺点是缺乏灵活性,即当程序太小时,会造成内存资源的浪费,程序太大时,一个分区由不足以装入该程序,只是该程序无法运行。

② 分区大小不等,把内存区划分成含有多个较小的分区、适量中等分配和少量大分区,这样,便可根据程序的大小为之分配适当的分区。

为了便于内存分配,将分区按大小进行排队,并为之建立一张分区说明表,其中各表项包括可用于分配的分区数、每个分区的起始地址、大小、状态(是否已分配),当有一个程序需要装入时,由内存分配程序检索该表,从中找出一个能满足要求的,尚未分配的分区,将之分配给该程序,然后将该表项中的状态设置为已分配,若未找到大小足够的分区,则拒绝为该用户分配内存。

分区号大小始址状态
112K20K已分配
232K32K已分配
364K64K已分配
4128K128K未分配

内存中已分配给用户但未被利用的区域称 为 “内零头” (内碎片)。 固定分区分配有内零头产生。

外零头(External Fragment ): 没有分配但无法分配的空间 ,太小而无法分配,“分不出去的空间”

动态分区分配

动态分区分配是指根据进程的实际需要,动态地为之分配连续的内存空间。即分区的边界可以移动,分区的大小是可变的。动态分区又有两种不同选择,一种是分区的数目固定大小是可变的,而另一种则允许分区的数目和大小都是可变的。 为了说明它们之间的重要差异,我 们考虑一个具有256K字节存储器的系统。

分区数目固定

分区数目可变

为实现可变分区分配,常用的数据结构:

可重定位分区分配

​ 在连续分配方式中,必须把一个系统或用户程序装入一连续的内存空间,若果在系统中只有若干个小的分区,即使他们容量总和大于要装入的程序,但由于这些分区不相邻接,也无法把该程序装入内存。若想装入,则将内存中的所有作业进行移动,使他们全部相邻接,这样,即可把原来分散的多个小分区拼接成一个大分区,这时,就可以把作业装入该区。经过紧凑后的某些用户程序在内存中的位置发生了变化,此时若不对程序和数据的地址加以修改(变换),则程序必将无法执行,为此,在每次紧凑之后,都必须对移动了的数据和程序进行重定向

在动态运行时装入的方式中,作业装入内存后的所有地址都仍然是相对地址,将相对地址转化为物理地址的工作,退推迟到程序指令要真正执行时进行。为了使地址变换不影响指令的执行速度,在系统中增设了一个重定位寄存器,用它来存放程序(数据)在内存中的起始地址。在程序执行时,真正访问的内存地址是相对地址与重定位寄存器中的地址相加而形成的。该动作是随着对每条指令或数据的访问自动进行的,故称为动态重定位,当系统对内存进行了紧凑而使若干程序在内存中移动时,不需要对程序做任何修改,只要用该程序在内存的新起始地址去置换原来的起始地址即可。

动态重定位分区分配算法与动态分区分配算法基本上相同,差别仅在于:在这种分配算法中,增加了紧凑功能,通常,在找不到足够大的空闲分区来满足用户需求时进行紧凑。

分区分配算法

  • 最佳适应算法(Best fit: BF) :就是为一作业选择分区时总是寻找其大小最接近作业所要求的存储区域。即:把作业放 入这样的分区后剩下的零头最小。

    优点:如果存储空间中具有正好是所要求大小的存储空白区,则必然被选中;如果不存在这样的空白区,也只对比要求稍大的空白区进行划分,而绝不会去划分一个更大的空白区。因此,其后遇到大作业到来时,作业要求的存储区域就比较容易得到满足。 为了加快查找速度,应将存储空间中所有的空白区按其大小递增的顺序链接起来,组成一空白区链(Free List)。

    缺点:采用最佳适应算法,在每次分配时,总是产生最小的空白区。因此,经过一段时期后,存储空间中 可能留许多这样的空白区,由于其太小而无法使用。为了改善这种情况,在该算法中设置一参数G,用它来确 定最小分区的大小。当选择一个分区时,如果选中的空白区与要求的大小之差小于G,则不再对它划分,而把整个这个空白区分配给申请的作业。 最佳适应算法的另一缺点是:在回收一个分区时, 为了把它插入到空白区链中合适的位置上也颇为费时。 所以,这种算法乍看起来是最佳的,其实则不然。

  • 最坏适应算法(Worst fit: WF):与最佳适应算法相反,它在为作业选择存储区域时,总是寻找最大的空白区。在划分后剩下的空白区也是最大的,因而对以后的分配很可能仍然是有用的,这是该算法的一个优点。但是,由于最大的空白块总是首先被分配而进行 划分,当有大的作业时,其存储空间的申请往往得不到满足,这是该算法的一个缺点。为了支持这个算法的实现,空白块应以大小递减的顺序链接起来。

  • 首次适应算法(First Fit: FF) :每个空白区按其在存储空间中地址递增的顺序链在一 起,即每个后继空白区的起始地址总是比前者的大。在 为作业分配存储区域时,从这个空白区链的始端开始查找,选择第一个足以满足请求的空白块,而不管它究竟 有多大。 显然,这个算法倾向于优先利用存储空 间中低址部分的空白区。

    主要优点:算法简单,查找速度快;留在高址部分的大的空白区被划分的机会较少,因而在大作业到来时也比较容易得到满足。 主要缺点:这种算法常常利用一个大的空白区适应小作业的请求,从而留下一些较小的无法用的空白区,存储空间利用率不高;而且,由于所有的请求都是从空白区链的始端开始查找,因而这些小而无用的空白区集中在这个链的前端,相应地,一些较大空白区在链的尾端才能发现,这种情况将使找到合适空白区的速度降低。在低地址部分会积累大量外零头

  • 下次适应算法(Next fit: NF) :该算法实际上是首次适应算法的一种变形,故也被称为带旋转指针的首次适应算法(Next Fit with Roving Pointer)。 为此,我们把存储空间中空白区构成一个循环链。每次为存储请求查找合适的分区时,总是从上次查找结束的地方开始,只要找到一个足够大的空白区,就将它划分后分配出去。显然,采用这一策略后,存储空间的利用更加均衡,而不至于使小的空白区集中于存储器的一端。 但是,在存储器的另一端也不可能保留大的空白块,因此,当需要获得相当大的空白区时,能满足的可能性减少了。

  • 快速适应算法(Quik fit: QF):将空闲分区根据其容量大小进行分类,对于每一类具
    有相同容量的所有空闲分区,单独设立一个空闲分区链表。这样,系统中存在多个空闲分区链表;同时,在内存中设立一张管理分区类型,并记录了该类型空闲分区链表表头的索引表,该表的每一个表项记录了对应类型空闲分区链表表头的指针。
    ➢分配过程:根据进程的长度,寻找到能容纳它的最小空闲分区链表,并取下第一块进行分配即可。

    优点:1.查找效率高。2.该算法在进行空闲分区分配时,不会对任何分区产生分
    割,所以能保留大的分区,满足对大空间的需求,也不会产生内存碎片。
    ➢缺点:1.在分区归还主存时算法复杂,系统开销较大。2.该算法在分配空闲分区时是以进程为单位,一个分区只属于一个进程,因此在为进程所分配的一个分区中,或
    多或少地存在一定的浪费。空闲分区划分越细,浪费则越严重。

分区分配操作

分配内存

系统利用某种分配算法,从空闲分区链(表)中找到所需大小的分区,其流程图如下:

回收内存

当进程运行完毕释放内存时,系统根据回收区的首址,从空闲区链(表)中找到相应的插入点,此时会出现如下四种情况之一:回收分区与插入点的前一个空闲区F1相邻接,此时将回收区与插入点的前一分区合并,不必为回收区分配新表项,只需要修改前一分区F1的大小。回收分区与插入点的后以空闲分区F2相邻接,此时将两分区合并,形成新的空闲分区,用回收区的首址作为新空闲区的首址,大小为两者之和。回收区同时与插入点的前、后两个分区邻接,此时将三个分区合并,使用F1的表项和F1的首址,取消F2的表项,大小为三者之和。回收区既不与F1邻接,也不与F2邻接,这时为回收区单独建立一个新表项,填写回收区的首址和大小,并根据其首址插入到空闲链中的适当位置。

伙伴系统

​ 伙伴系统规定,无论已分配分区还是空闲分区,其大小均为2的k次幂,k为整数,1<= k <= m,其中,2^1表示分配的最小分区的大小,2^m表示分配的最大分区的大小,通常2^m是整个可分配内存的大小。假设系统开始时的初始容量为2^m个字,由于不断切分,可能会形成若干个不连续的空闲分区,将这些空闲分区根据分区的大小进行分类,对于每一类具有相同大小的所有空闲分区,单独设立一个空闲分区双向链表。这样,不同大小的空闲分区形成了k个空闲分区链表。

当需要为进程分配一个长度为n的存储空间时,首先计算一个i值,使2^i-1 < n <= 2^i,然后,在空闲分区大小为2^i的空闲分区链表中查找,若找到,即把该空闲分区分配给进程,否则,表明2^i的空闲分区已经耗尽,在大小为2^i+1的空闲分区链表中查找,若存在,则将该空闲分区分为两个大小为2^i的分区,一个用于分配,一个加入到大小为2^i的空闲分区链表中,若还是不存在,则继续在大小为2^i+2的空闲分区链表中查找,若存在,则将空闲分区进行两次分割,一次分割为两个大小为2^i+1的空闲分区,一个加入到大小为2^i+1的空闲分区链表中,另外一个继续进行分割,分成两个大小2^i的空闲块,一个用于分配,另外一个加入到大小为2^i的空闲分区链表中,以此类推。在最坏的情况下,可能需要对2^k的空闲分区进行k此分割才能得到所需分区。

当回收空闲分区时,也需要经过多次合并,如回收大小为2^i的空闲分区时,若事先已经存在2^i的空闲分区,则应将其与伙伴分区合并为一个大小为2^i+1的空闲分区,若事先已存在2^i+1的空闲分区,则再次进行合并,合并为2^i+2的分区,以此类推。

基本分页存储管理方式

页面与页表

分页存储管理是将一个进程的逻辑地址空间分成若干个大小相等的片,称为页面或页,并为各页进行编号,从0开始。相应地,把内存空间分成与页面相同大小的若干个存储块,称为(物理)块或者页框,也同样为它们编号,如0#块,1#块等。在未进程分配内存时,以块为单位将进程的若干个页分别装入到多个可以不相邻接的物理块中,由于进程的最后一页经常装不满一块而形成不可利用的碎片,称之为页内碎片(程序大小一般不是页大小的整数倍)。

页面大小由机器的地址结构决定。某一机器只能采用一种大小的页面。

  • 小页面

  • 大页面

​ 页面的大小通常在1KB~8KB之间。

分页地址中的地址结构如下

在分页存储管理方式中,任何一个逻辑地址都可转变为:页号+页内位移量。前一部分为页号P,后一部分为位移量W(或称为页内地址),总共32位,其中0-11位为页内地址,每页大小4KB,12~31位为页号,地址空间最多允许1M个页面。

设有一逻辑地址A,页面大小为L,则在分页存储管理方式中,它的地址被转换:
页号 P=INT[A/L]
页内位移量 W=A MOD L
如有逻辑地址为:2170,页面大小为1KB,则
P=INT[2170/1024]=2;W=2170 MOD 1024=122

为了能够保证在内存中找到每个页面所对应的物理块,系统为每个进程建立了一张页面映射表,简称为页表。页表项纪录了相应页在内存中对应的物理块号,在配置了页表后,进程执行时,通过查找该表,即可找到每页在内存中的物理块号,页表实现了从页号到物理块号的地址映像

即使在简单的分页系统中,也常在页表的表项中设置一存取控制字段,用于对该存储块中的内存加以保护,当存取控制字段仅有一位时,可用来规定该存储块中的内存时允许读/写,还是只读;若存取控制字段为二位,则可规定为读/写、只读、只执行等存取方式。

地址变换机构

地址变换机构的功能将用户的逻辑地址转变为内存中的物理地址。逻辑地址由页号和页内位移量组成。页的大小和内存物理块的大小是相同的,所以页内位移量即为物理块内位移量。地址变换任务是借助页表来完成的

页表的功能可以由一组专门的寄存器来实现,一个页表项用一个寄存器,由于寄存器具有较高的访问速度,因而有利于提高地址变换的速度,但成本较高,且页表项一般会很多,都使用寄存器实现不太现实,因此,页表大多驻留在内存。在系统中只设置一个页表寄存器PTR(Page-Table Register),用于存放页表在内存的始址和页表的长度,平时,页表的始址和页表长度存放在本进程的PCB中,当调度程序调度到某进程时,将这两个数据装入页表寄存器,因此,在单处理机环境下,虽然系统中可以运行多个进程,但只需要一个页表寄存器。

当进程要访问某个逻辑地址中的数据时,分页地址变换机构会自动地将有效地址(相对地址)分为页号和页内偏移量两部分,从PTR中得到页表首址,再以页号为索引去检索页表,查找操作由硬件执行,在执行检索前,先将页号与页表长度进行比较,若页号大于或等于页表长度,则表示本次访问的地址超越了进程的地址空间,这一错误将被系统发现并产生一个地址越界中断。若未出现错误,则将页表始址加上页号与页面大小乘积,便得到该表项在页表中的位置,于是可从中得到该页的物理块号,将之装入物理地址寄存器,与此同时,再将页内地址送入物理地址寄存器的块内地址字段中,这样,便完成了逻辑地址到物理地址的转换。

上述操作中,每次存取一个数据时,都会访问内存两次,第一次是访问内存中的页表,从中找到指定页的物理块号,再将块号与页内偏移量W拼接,以形成物理地址,第二次访问时,才是从第一次所得的地址中获得所需数据,因此,这种方式会使计算机的处理速度降低一半,为了提高地址变换速度,可以在地址变换机构中增设一个具有并行查询能力的高速缓冲寄存器,又称为联想寄存器或快表(TLB),专门保存当前进程最近访问过的一组页表项。

此时的变换过程如下,在CPU给出有效地址后(逻辑地址),由地址变换机构自动的将页号P送入高速缓冲寄存器,并将此页号与高速缓存中的所有页号进行比较,若其中有与之相匹配的页号(命中),便表示所要访问的页表项在快表中,于是,可以直接从快表中读出该页所对应的物理块号,并送到物理地址寄存器中,如在快表中没有找到(命中失败),则还需要再访问内存中的页表,找到后,把从页表项读出的物理块好送入地址寄存器,同时,再将此页表项存入快表的寄一个寄存器单元,即修改快表,如果快表已满,则OS需要找到一个老的且已被认为不再需要的页表项,将它换出。

例1:某采用分页存储管理的系统中,物理地址占20位,逻辑地址中页号占6位,页面大小为1KB,问:
⑴该系统的内存空间大小为多少?每个存储块的大小为多少?逻辑地址共几位?每个作业的最大长度为多少?
⑵若第0、1、2页分别放在第3、7、9存储块中,则逻辑地址0420H对应的物理地址是多少?
在分页存储管理系统中,根据题意:
⑴物理地址占20位,所以该系统的内存空间大小
为:1MB
存储块的大小与页面大小相同,而页面大小为1KB,因此存储块的大小为:1KB
由于页面大小为1KB,占10位,而页号占6位,因此逻辑地址共16位,
从 而 该 系 统 中 每 个 作 业 的 最 大 长 度 为 :64KB
⑵法1(全部转换成10进制):
逻辑地址:0420H=1056
因为1K<=1056<2K-1,所以在1号页面内,其页内位移量为:1056-1K=32; 而1号页面对应7号物理块,所以物理地址为:7×1K+32=7200。
法2(将页面转换成16进制表示):
页面大小:1K=0400H 。因为0400H<=0420H<07FFH,所以在1号页面内,其页内位移量为:0420H-0400H=20H;而1号 页 面 对 应 7 号 物 理 块 , 所 以 物 理 地 址 为 :
7×0400H +20H=1C20H。

访问内存的有效时间 EAT
定义:从进程发出指定逻辑地址的访问请求,经过地址变换,再到内存中找到对应的物理单元并取出数据,所花费的总时间。
➢如检索快表时间为20 ns,访问内存为100 ns。

  • 若能在快表中检索到CPU给出的页号,则CPU存取一
    个数据共需120 ns。
  • 否则,需要220 ns的时间。

有效访问时间 = HitR×(TLB+MA) + (1-HitR)×(TLB+2MA),HitR为命中率。

例:设访问主存时间为200ns,访问联想存储器为40ns,命中率为90%,则平均存取时间为多少?
查页表两次访存:200+200=400ns
查快表,平均为:40+200=240ns
(200+40)×90%+(200+200+40)×10%=260ns

两级和多级页表

现代计算机系统中,可以支持非常大的逻辑地址空间(2^32~2^64),这样,页表就变得非常大,要占用非常大的内存空间,如,具有32位逻辑地址空间的分页系统,规定页面大小为4KB,则在每个进程页表中的页表项可达1M(2^20)个,又因为每个页表项占用一个字节,故每个进程仅仅页表就要占用1MB的内存空间,而且要求连续,这显然是不现实的,可以通过如下两个方法解决该问题。

① 采用离散分配方式来解决难以找到一块连续的大内存空间的问题。

② 只将当前需要的部分页表项调入内存,其余页表项仍驻留在磁盘上,需要时再调入。

对于要求连续的内存空间来存放页表的问题,可利用将页表进行分页,并离散地将各个页面分别存放在不同的物理块中的办法来解决,同样的,也要为离散分配在页表再建立一张页表,称为外层页表。在每个页表项中记录了页表页面的物理块号,以32位逻辑地址空间为例进行说明。

层页号P1为10位,可以表示1024个物理块号,外层页表中的外层也内地址P2为10位,可以表示1024个物理块号,页内地址为12位,表示页面大小为4K。

在页表的每一个表项中存放的是进程的某页在内存中的物理块号,如第0页的0页存放1#物理块,第1页存放4#物理块,而在外层页表的每个页表项中,所存放的是某页表分页的首址,如第0页页表存放在1011#物理块中,第1页页表存放在1078#物理块中。

为了实现地址变换,在地址变换机构中需要增设一个外层页表寄存器,用于存放外层页表的始址,并利用逻辑地址中的外层页号,作为外层页表的索引,从中找到指定页表分页的始址,在利用P2作为指定页表分页的索引,找到指定的页表项,其中即含有该页在内存的物理块号,用该块号和页内地址d即可构成访问的内存物理地址。

利用离散分配方法实现的两级页表只是解决了大页表无需大片连续存储空间问题,但并未减少用较少内存去存放大页表问题,有关此类问题的成功解决方案放在虚拟存储器
管理中。

对于64位的机器而言,采用两级页表已经不太合适,如果页面大小仍采用4KB,那么剩下52位,若还是按照物理块的大小(2^12位)来划分页表,每个页表项4B,故一页中可存放2^10个页表项,则将余下的42位用于外层页号,此时,外层页表中可能有4096G个页表项,要占用16384GB的连续内存空间,显然是不行的。使用1MB的页面,剩44位。若按1MB来划分页表,还剩26位用于二级页表,二级页表有64M个页表项,占
256MB空间必须采用多级页表,即将外层页表再进行分页。若计算机的虚拟地址空间大小为2^64,页面大小为4KB,页表项为4B,则最少页表的级数为6级,首先总的页面个数为2^52(64 - 12),其次,每个物理块能装入的页表项为4KB/4B = 2^10个,10 * 6 > 52,即最少需要6级。

反置页表Inverted Page Table(IPT)

逻辑空间越来越大,页表占内存也越来越大,为了解决大页表问题占内存多现象,减少内存开销,避免一个进程一个页表。IPT思想:(1)IPT是为主存中的每一个物理块建立一个页表项并按照块号排序;(2)该表每个表项包含正在访问该物理块的进程标识、页号及特征位,用来完成主存物理块到访问进程的页号的转换。

常采用部分装入,所以必须为每个进程建立一个外部页表。当该页不在主存时,需要访问外部页表。
反置页表只索引正在运行的进程页面
因为IPT都大,所以利用进程标识符和页号去检索是相当费时的。采用Hash表来检索。

反置页表地址转换过程如下:
给出进程标识和页号,用它们去比较IPT,若整个反置页表中未能找到匹配的页表项,说明该页不在主存,产生请求调页中断,请求操作系统调入;否则,该表项的序号便是物理块号,块号加上位移,便形成物理地址。

对换

对换指把内存中暂不能运行的进程或暂时不用和程序和数据,换到外存上,以腾出足够的内存空间,把已具备运行条件的进程,或进程所需要的程序和数据,换入内存。对换是系统行为,是提高内存的利用率的有效措施。常用于多道程序系统或小型分时系统中,与分区存储管理配合使用。实现:可在系统中设一对换进程,以执行换进内存、换出至外存操作。

分类:

  • “整体对换”(进程对换):
    对换以整个进程为单位,用于分时系统,以解决内存紧张的问题;
  • “页面对换/分段对换”:
    对换以“页”或“段”为单位进行“部分对换”,该方法是实现请求分页及请求分段存储器的基础,支持虚存系统。

为实现对换,系统需要三方面的功能:

  1. 对换空间的管理,在具有对换功能的OS中,通常把外存分为文件区和对换区,前者用于存放文件,后者用于存放从内存换出的进程。由于文件通常是较长久的驻留在外存上,文件区的管理主要目标是提高存储空间的利用率,采取离散分配方式(用指针相连),进程通常在对换区中驻留的时间较短暂,对换操作较频繁,故对对换空间管理的主要目标是提高进程换入和换出的速度,采取的是连续分配的方式,较少考虑外存中的碎片问题。为了能对对换区中的空闲盘块进行管理,在系统中应配置相应的数据结构,以记录外存的使用情况。空闲分区表或空闲分区链。在空闲分区表中的每个表目应包含两项,即对换分区首址和对换区长度,它们的基本单位都是盘块

  2. 进程的换出,选择:首先选择阻塞睡眠状态的进程,若有多个,按优先级由低到高进行选择。若没有此状态进程,则选择就绪状态的,仍然按优先级由低到高进行选择。为避免某进程被频繁的换入换出,还应考虑进程在内存中的驻留时间,优先选择驻留时间长的进程。

  3. 进程的换入,①从 PCB集合中查找“就绪且换出”的进程,有多个,则选择换出时间最长的。②根据进程大小申请内存,成功则读入,否则要先执行换出,再换入。③若还有可换入进程,则转向①。直至无“就绪且换出”进程或无法获得足够内存空间为止。

基本分段存储管理方式

分段存储管理方式的引入

从固定分区到动态分区分配,再到分页存储管理方式,其主要动力为提高内存利用率,引入分段存储管理的目的在于满足用户在编程和使用上多方面的要求。如

① 方便编程,用户可以把自己的作业按照逻辑关系划分为若干段,每个段都是从0开始编址,并有自己的名字和长度。

② 分段共享,在实现对程序和数据的共享时,是以信息的逻辑单位为基础的,比如共享某个函数。

③ 分段保护,对内存中信息的保护同样是对信息的逻辑单位进行保护。

④ 动态增长,在实际应用中,数据段在使用过程中往往会不断增长,而实现无法确切知道数据段会增长到多大,分段可以较好的解决这个问题。

⑤ 动态链接,再运行时,先将主程序所对应的目标程序装入内存并启动运行,当运行过程中有需要调用某段时,才将该段调入内存并进行链接。

分段系统的基本原理

在分段管理中,作业的地址空间被划分为若干个段,每个段定义了一组逻辑信息,如有主程序段MAIN,子程序段X,数据段D及栈段S,每个段都有自己的名字,每个段从0开始编址,并采用一段连续的地址空间,段的长度由相应的逻辑信息组的长度决定,因而各段长度不等,整个作业的地址空间由于是分成多个段,因而是二维的,即其逻辑地址由段号和段内地址构成

​ 该系统可允许一个作业允许最长有64K个段,每个段的最大长度为64KB。

在分段式存储管理系统中,为每个分段分配一个连续的分区,而进程中的各个段可以离散地移入内存中不同的分区,为了使程序正常运行,能够物理内存中找出每个逻辑段所对应的位置,应该为每个进程建立一张段映射表,称为段表,每个段在表中有一个表项,其中记录了该段在内存中的起始地址和段的长度。段表可以存放在一组寄存器中,这样有利于提高地址转换速度,但通常将段表放在内存中。段表用于实现从逻辑段到物理内存区的映射

为了实现从进程的逻辑地址到物理地址的变换功能,在系统中设置了段表寄存器,用于存放段表始址和段表长度TL,在进行地址变换时,系统将逻辑地址中的段号与段表长度TL进行比较,若S>TL,表示段号太大,访问越界,产生越界中断信号,若未越界,则根据段表的始址和该段的段号,计算该段对应段表项的位置,从中读出该段在内存中的起始地址,然后,再检查段内地址d是否超过该段的段长SL,若超过,同样发出越界中断信号,若未超过,则将该段的基址与段内地址d相加,即得到要访问的内存物理地址。

每次访问一个数据时(需给出段号和段内地址),也需要访问两次内存,第一次根据段号获得基址,第二次根据基址与段内地址之和访问真实数据的物理地址。这降低了计算机的速率,也可以增设一个联想存储器,用来保存最近常用的段表项,用来加速存取数据的时间。

信息共享

一个多用户系统可接纳40个用户,它们都执行一个文本编辑程序(ED),ED代码共160K,每个用户还有40K的数据区(DA)。
不采用信息共享时需占用的内存空间?
( 160K + 40K ) * 40 = 8000K
采用信息共享(若ED可共享)后占用的内存空间?
160K + 40K * 40 = 1760K

分页与分段存在很大的相似性,如都采用离散分配方式,都需要通过地址映射机构实现地址变换,但两者的主要区别如下。

分页共享

  • 对于数据页面,实现起来比较简单。因为这个数据页面可以安排在诸作业地址空间中的任何一页面上。
  • 对于代码页面,它必须把共享的代码安排到所有共享它的作业地址空间中相同页号的页面中。即共享代码所在的地址空间必须重叠。之所以有这种要求,是因为一个作业在运行前必须链接好,而链接后,一个例程的所占页号就确定了。如果其它作业要共享该例程,则必须使它具有相同的页号,才能正确运行。

分段共享

分段的共享是通过两个作业段表的相应表目都指向COS过程的同一物理副本来实现的。
说明:
⑴由于段号是在动态链接过程中分配的,而且,系统不可能事先知道某个过程将为哪些作业所调用;因此,一个公共过程不一定也无需赋相同的段号。
例如,[COS]在作业1的地址空间中,其段号为6,但在作业2的地址空间中其段号为3。
⑵当某个共享段移出主存后,必须在共享该段的每个作业之段表的相应表目中,置状态为“不在主存”标志。

分页和分段的主要区别

① 页是信息的物理单位,分页是为实现离散分配方式,以消减内存的外零头,提高内存的利用率,或者说,分页仅仅是由于系统管理的需要而不是用户的需要,段则是信息的逻辑单位,它含有一组意义相对完整的信息,分段的目的是为了能更好地满足用户的需要。

② 页的大小固定且由系统决定,由系统把逻辑地址划分为页号和页内地址两部分,是由机器硬件实现的,一个系统中,只存在一种大小的页面,段的长度则不固定,决定于用户所编写的程序,通常由编译程序在对源程序进行编译时,根据信息的性质来划分。

③ 分页的作业的地址空间是一维的,即单一的线性的地址空间,程序员只利用一个记忆符即可表示一个地址,而分段的作业地址空间是二维的,程序员在标识一个地址是,需要给出段名和段内地址。

段页式存储管理方式

分页系统能够有效的提高内存利用率(但是会存在页内碎片),分段系统则能够很好地满足用户需要。若能将两种方式结合起来,既具有分段系统的便于实现、分段可共享、易于保护、可动态链接等优点,又能像分页系统那样很好地解决内存的外部碎片问题,基于此,提出了段页式系统。

段页式系统先将用户程序分成若干个段,再把段分为若干个页,并为每一个段赋予一个段名。段页式系统中,地址结构由段号、段内页号、页内地址三部分构成。

在段页式系统中,为了便于实现地址转换,须配置一个段表寄存器,其中存放段表始址和段表长TL,进行地址变换时,首先利用段号S,将它与段表长TL进行比较,若S<TL,表示未越界,于是利用段表始址和段号来求出该段所对应的段表项在段表中的位置,从中得到该段的页表始址,并利用逻辑地址中的段内页号P来获得对应页的页表项位置,从中读出该页所在的物理块号b,再利用b和页内地址构成物理地址。

在段页式系统中,为了获得一条指令或数据,需要访问内存三次,第一次访问时访问内存中的段表,从中取得页表始址,第二次访问是访问内存中的页表,从中取出该页所在的物理块号,并将该块号与页内地址一起形成指令或数据的物理地址,第三次访问才是真正的从第二次访问所得的地址中,取出指令或数据。同样,也可以增设高速缓冲寄存器用于加快访问速度,表项应包括段号、页号、物理块号。

分页管理提供( A)维的地址结构,分段管理提供(B )维的地址结构,段页式管理提供(C )维的地址结构。

A. 1 B. 2 C. 3 D. 4

段页式管理每取一次数据,要访问(C )次内存;若改为分页式管理或者分段式管理,要访问( B)次内存。

A. 1 B. 2 C. 3 D. 4

页管理的主要任务之一是实现(逻辑页号 )到( 物理块号) 的内存地址映像。

在分段管理中,系统为每个运行的作业建立一个(段表),其内容主要包括(段号)、(段长)、(内存起始地址)和状态标志。段表是一种数据结构,用于存储程序的逻辑段与物理内存之间的映射关系。当程序访问内存时,操作系统会使用段表来查找逻辑地址对应的物理地址,然后将数据从物理内存中读取或写入 。

在分段管理的地址变换过程中,若执行某条指令,首先要找到该作业段表的(始址),然后根据逻辑地址中的段号去查找(段表项),得到该段的内存中的(物理始址),其值与段内位移量(相加),得到(操作的实际地址)。

虚拟存储器的基本概念

虚拟存储器概述

前面所介绍的存储器管理方式都有共同的特点:
“一次性”: 要求将一个作业全部装入内存才能运行,

  • 大作业无法运行。

  • 限制作业并发执行的程度。

“驻留性”: 作业装入后一直驻留内存直到作业完成。

  • 内存中存在一些已无用的、或暂时不用的程序或数据,浪费内存空间。

出现了下面两种情况:

① 有的作业很大,其所要求的内存空间超过了内存总容量,作业不能全部被装入内存,致使该作业无法运行。

② 有大量作业要求运行,但由于内存容量不足以容纳所有这些作业,只能将少数作业装入内存让他们先运行,而将其他大量作业留在外存上等待。

为了解决上述问题,可以增加物理内存,但是其不太现实,另外是从逻辑上扩充内存容量。

基于程序的局部性原理(时间局限性和空闲局限性),程序在运行之前,没有必要全部装入内存,仅需将那些当前要运行的少数页面或段先装入内存便可运行。其余部分暂留在磁盘上,程序运行时,如果它所要访问的页(段)已经调入内存,便可继续执行下去,但如果程序所要访问的页(段)尚未调入内存(缺页或缺段),此时程序应利用OS的请求调页(段)功能,将它们调入内存,以使进程继续执行下去。如果此时内存已满,无法再装入新的页(段),则还需利用页(段)的置换功能,将内存中暂时不用的页(段)调至磁盘上,再将要访问的页(段)调入内存,使程序继续执行。这样,可以使很大的用户程序在较小的内存空间中运行。从用户的调入看,该系统具有很大的内存容量,但是,用户看到的大容量只是一种感觉,这种存储器被称为虚拟存储器。所谓虚拟存储器,是指具有请求调入功能和置换功能,能从逻辑上对内存容量加以扩充的一种存储器系统,其逻辑容量由内存容量和外存容量之和决定,其运行速度接近内存,成本接近外存

虚拟存储器虽然给用户提供了特大地址空间,但其容量不
是无限大,主要受两个方面的限制:

  • 指令中表示地址的字长
    如:若CPU的有效地址长度为32位,则可以表示的地址最大空间为2^32,逻辑空间大小为4G,即虚存容量为 4GB。与物理空间的大小无直接关系
  • 外存的容量(对换区)

虚拟存储器的实现方法

一、请求分页系统
它是在纯分页系统的基础上增加了请求调页、页面置换两大功能所形成的页式虚拟存储系统。为了实现请求调页、页面置换两大功能,系统必须提供如下的硬件支持:

  1. 请求分页的页表机制。
  2. 缺页中断机构。
  3. 地址变换机构。
    此外,实现请求调页、页面置换两大功能还需得到
    OS的支持。

二、请求分段系统
它是在纯分段系统的基础上增加了请求调段、分段置换两大功能所形成的段式虚拟存储系统。为了实现请求调段、分段置换两大功能,系统必须提供如下的硬件支持:

  1. 请求分段的段表机制。
  2. 缺段中断机构。
  3. 地址变换机构。
    此外,实现请求调段、分段置换两大功能还需
    得到OS的支持。

三、段页式虚拟系统
目前,许多虚拟存储管理系统是建立在段页式系统的基础上的,通过增加了请求调页、
页面置换两大功能所形成的段页式虚拟存储系统。
如:Intel 80386处理机便支持段页式虚拟存储系统。

虚拟存储器的特征

1.多次性
多次性是指一个作业被分成多次调入内存运行。
2.对换性
对换性是指作业的运行过程中进行换进、换出。换进和换出能有效地提高内存利用率。
3.虚拟性
虚拟性是指能够从逻辑上扩充内存容量,使用户所看到的内存容量远大于实际内存容量。

虚拟性是以多次性和对换性为基础的;而多次性和对换性又必须建立在离散分配的基础上。

虚存实现的理论依据是什么?程序执行的局部性原理

如何将程序划分成部分?分页或分段

请求分页存储管理方式

请求分页是建立在分页基础上的,增加了请求调页功能和页面置换功能。

请求分页中的硬件支持

页表机制,在虚拟存储系统中的所有的页表,其页描述子有了新的扩充,这是进行地址变换机构所必须的,增加四个信息标识位。

(1)状态位(存在位)D:用于说明该页是否已调入内存,供程序访问时参考;D=0,该页不在内存。D=1,该页在内存。
(2)访问位A:用于记录本页在一段时间内被访问的次数,或最近已有多长时间未被访问,提供给置换算法选择换出页面时参考。A=0,该页未被访问 。A=1,该页被访问
(3)修改位M:用于表示该页在调入内存后是否被修改过,也是提供给置换算法在换出页面时是否将该页面写回外存作参考。M=0,该页在内存中未被修改。M=1,该页在内存中已经被修改
(4)外存地址:用于指出该页在外存上的地址,供调入该页时使用。

缺页中断机构,当要访问的页面不在内存时,产生一个缺页中断,请求OS将缺的页面调入内存,缺页作为中断,也需要经过保护CPU现场、分析中断原因、转入中断处理程序进行处理、恢复CPU环境等。但是,其与一般中断相比有一些不同,主要在于:在指令执行期间产生和处理中断信号(通常CPU都是在一条指令执行完后,才检查是否有中断请求到达,若有,则响应,否则,继续执行下一条指令,然而,缺页中断是在指令执行期间,发现所要访问的指令或数据不再内存时所产生和处理的),一条指令在执行期间,可能产生多次缺页中断。

地址变换机构,在分页系统地址变换基础上,再为实现虚拟存储器而增加的某些功能而形成。如产生和处理缺页中断,以及从内存中换出一页功能等。

缺页中断处理过程

(1)操作系统接收到进程产生的缺页中断信号,启动中断处理例程,保留处理机现场;
(2)操作系统通知处理机从外存读取指定的页面;
(3)处理机激活I/O设备;
(4) 检查内存有无足够的空闲空间装入该页面?若有,转(6),否则,执行(5);
(5) 利用页面置换算法,选择内存中的某个页面,换出内存;
(6) 将指定页面从外存装入内存;
(7) 更新该进程的页表;
(8) 更新快表;
(9)计算物理地址。

内存分配策略和分配算法

最小物理块数:是指能保证进程正常运行所需的最少物理块数。若系统为某进程所分配的物理块数少于此值时,进程将无法运行。

对于某些简单的机器,若是单地址指令且采用直接寻址方式,则所需的最少物理块数为2。(在直接寻址方式中,指令中给出的是操作数的地址。因此,需要至少两个物理块,一个用于存储指令,另一个用于存储操作数。)
如果该机器允许间接寻址时,则至少要求有物理块数为3。(这是因为在间接寻址方式中,指令中给出的是操作数地址的地址。因此,需要至少三个物理块,一个用于存储指令,一个用于存储操作数地址的地址,另一个用于存储操作数)

分配策略

在请求分页系统中,可采取两种内存分配策略,固定和可变分配策略,在进行置换时,也可采用全局置换和局部置换,可组合出如下三种适用的策略。

固定分配局部置换(为每个进程分配一定数目的物理块,整个运行期不再改变,如果进程在运行中发现缺页,则只能从该进程在内存的n个页面中选出一页换出,然后再调入一页,以保证分配给该进程的内存空间不变,若开始为进程分配的物理块数太少,则会频繁缺页,降低系统吞吐量,若太多,则使内存中驻留的进程数目减少,进而造成CPU空闲或其他资源空闲的情况)

可变分配全局置换(先为系统中的每个进程分配一定数目的物理块,而OS自身也保持一个空闲物理块队列,当某进程发现缺页时,由系统从空闲物理块队列中取出一个物理块分配给该进程,并将欲调入的缺页装入其中,仅当空闲物理队列的物理块用完时,OS才能从内存中选择一页调出,该页可能是系统中任一进程的页,这样,会使那个进程的物理块减少,进而使缺页率增加)

可变分配局部置换(为每个进程分配一定数目的物理块,当进程缺页时,只允许从该进程在内存中的页面中选出一页换出,这样不会影响其他进程的运行,如果该进程频繁发生缺页,则系统需要再为该进程分配若干附加的物理块,直至该进程的缺页率减少到适当程度为止,反之,若一个进程正在运行过程中的缺页率特别低,则此时可适当减少分配给该进程的物理块数,但不应该引起缺页率明显增加)。

分配算法

可采用平均分配算法(将系统中所有可供分配的物理块平均分配给各个进程)、按比例分配(根据进程的大小按比例分配物理块)、考虑优先权的分配算法(将重要的,紧迫的作业分配较多的内存空间,可将系统的物理块分成两部分,一部分按比例分配给各进程,另一部分则根据进程的优先权适当地增加相应份额后,分配给进程。在有的系统中,如重要的实时控制系统,则可能是完全按优先权来为各进程分配物理块。)

调页策略

系统应当在何时把一个页面装入内存?

  • 预调页 (Prepaging)

    可采用一种以预测为基础的预调页策略,将那些预计在不久之后便会被访问的页面,预先调入内存。
    处理过程:
    当进程创建时,预先为进程装入多个页面。缺页中断时,系统为进程装入指定的页面以及与之相临的多个页面。
    若局部性很差,预先装入的很多页面不会很快被引用,并会占用大量的内存空间,反而降低系统的效率。预调页的成功率仅约50%。

  • 请求调页 (Demand Paging)

    仅当进程执行过程中,通过检查页表发现相应
    页面不在内存时,才装入该页面。当进程刚开始执行时,由于预先未装入进程的
    页面,故需要频繁地申请装入页面。执行一段时
    间以后,进程的缺页率将下降。采用请求调页方式,一次装入请求的一个页面,
    磁盘I/O的启动频率较高,系统的开销较大。

何处调入页面?

(1)对换区:系统拥有足够的对换区空间,这时可以全部从对换区调入所需页面,以提高调页的速度。
(2)文件区、对换区:系统缺少足够的对换区空间,这时凡是不会被修改的文件,都直接从文件区调入;而当换出这些页面时,由于它们未被修改而不必再将它们换出,以后再调入时,仍从文件区直接调入。 但对于那些可能被修改的部分,在将它们换出时,便须调到对换区,以后需要时,再从对换区调入。
(3)UNIX方式。由于与进程有关的文件都放在文件区,应从文件区调入。故凡是未运行过的页面,都应从文件区调入。而对于曾经运行过但又被换出的页面,由于是被放在对换区,因此在下次调入时,应从对换区调入。

页面调入过程?

缺页率

假设:逻辑空间为n页,内存物理块数为m(m<=n),在运行期间访问页面成功S次,失败F次,总访问次数为A=S+F次,则缺页率为:f=F/A

缺页率的影响因素:

页面大小
进程所分配物理块的数目
页面置换算法
程序的固有特性

请求分页管理过程中,作业地址空间同样受到内存容量大小的限制。错误

系统是通过 ()、()和()来实现动态分页管理的,分别用以解决何时把作业需要的信息按()从外存调入内存;内存中无空闲页框,如何将已占据的页框释放;完成虚拟地址变换为对应的物理地址。(调入策略,替换策略,地址变换,一定规则;)

内存扩充的概念有两种,一种是在物理上进行扩充,为系统增配更多的存储芯片,以扩大 ();另一种是利用目前机器中实际内存空间,借助软件技术,实现内存扩充,称为(),主要技术有()和()两种。(物理空间,虚拟内存,请求分页管理,请求分段管理;)

页面置换算法

最佳置换算法(Optimal)

最理想的页面置换策略是:从主存中移出永远不再需要的页面;如无这样的页面存在,则应选择最长时间不需要访问的页面。 最佳置换算法是一种理想化的算法,它具有最好
的性能,但实际上却难于实现。

先进先出置换算法(FIFO)

该算法的实质是:总是选择作业中驻留时间最长(即最老)的一页淘汰。即:先进入主存的页面先退出主存。算法实现比较容易,如分配给一个作业的存储块数为m,只需建立一个m个元素的队列表Q(0)、Q(1)、…、Q(m-1)和一个替换指针。该队列是按页面调入主存的先后顺序排列的,而指针始终指向最早调入主存的一页

1、该算法的出发点是最早调入内存的页面不再被访问的可能性会大一些。
2、该算法实现比较简单,对具有线性顺序访问的程序比较合适,而对其他情况效率不高。因为经常被访问的页面,往往在内存中停留最久,结果这些常用的页面却因变老而被淘汰。

先进先出算法存在一种异常现象,即在某些情况下会出现分配给的进程物理块数增多,缺页次数有时增加,有时减少的奇怪现象,这种现象称为Belady现象。例如:

物理块数345
缺页次数9105
最近最久未使用(LRU)置换算法

这种算法的基本思想是,利用局部性原理,根据一个作业在执行过程中过去的页面访问踪迹来推测未来的行为。它认为过去一段时间里不曾被访问过的页面,在最近的将
来可能也不会再被访问。
算法的实质是:当需要置换一页面时,选择在最近一段时间内最久不用的页面予以淘汰。
实现这种技术,是通过周期性地对“页面访问”位进行检查,并利用它来记录一个页面自上次访问以来所经历的时间 t ,并选择 t 为最大的页予以淘汰。

一般来说,对于任何一个页的访问顺序(或序列)和任何一种换页算法,如果分给的物理块数增加,则缺页(所访问页不在主存)的频率应该减少。但这个结论并不普遍成立,对于某些页面访问序列,FIFO有随着分给的页架数增加,缺页频率也增加的异常现象。

LRU算法需要以下两类硬件的支持:
1.寄存器。用于记录某进程在内存中各页使用情况。
2.栈。用于保存当前进程使用的各个页面的页面号。

(1)移位寄存器:
为了记录某进程在内存中各页的使用情况,须为每个在内存中的页面配置一个移位寄存器可表示为:
R=Rn-1Rn-2Rn-3···R2R1RO

  • 当进程访问某物理块时,要将相应寄存器的最高位Rn-1位置
    成1。系统每隔一定时间(例如100 ms)将寄存器右移一位。
  • 如果我们把n位寄存器的数看作是一个整数,那么,具有最
    小数值的寄存器所对应的页面,就是最近最久未使用的页面。

例:某进程在内存中具有8个页面
R= R7 R6 R5 R4 R3 R2 R1 R0,每100ms将寄存器右移一位。

(2) 栈。每当进程访问时某页面时,便将该页面号从栈中移出,压入栈顶。这样栈底则是最近最久未使用页面的页面号。 例如:假定一进程访问某页面的时页面号如下(5个存储块):

最少使用置换算法LFU

最少使用置换算法LFU(Least Frequently Used)选择到当前时间为止被访问次数最少的页面被置换。
1、基本方法:
记录每个页面的访问次数,最少访问的页面首先考虑淘汰
2、实际采取方法
为页面设置移位寄存器。
与LRU的区别:R1=10000000,R2=01110100
LRU----------淘汰R2
LFU----------淘汰R1

简单的Clock置换算法(NRU)

当采用简单clock算法时,为每页设置一位访问位,再将内存中的所有页面都通过链接指针链接成一个循环队列。
➢当某页被访问时,其访问位被置1。
➢置换程序从上次停止位置开始检查页面的访问位。
➢如果是0,就选择该页换出;
➢若为1,则重新将它置0,暂不换出,而给该页第二次驻留内存的机会。
➢由于该算法是循环地检查各页面的使用情况,故称为clock算法。置换时是将未使用过的页面换出去,故又把该算法称为最近未用算法NRU。

改进型Clock置换算法

系统把一个页面移出内存时,如果该页面驻留内存期间没有被修改过,那么不必把它写回辅存,否则系统必须把它写回辅存。这表明,换出未修改过的页面比换出被修改过的页面开销小。
❖ 显然,我们可以依据上述结论改进CLOCK算法。改进后的CLOCK算法将在置换范围内首选:
在最近没有被使用过
在驻留内存期间没有被修改过的页面作为被置换页面
➢由访问位A和修改位M可以组合成下面四种类型
的页面:
➢1类(A=0,M=0):表示该页最近既未彼访问,又未被修改,是最佳淘汰页。
➢2类(A=0,M=1):表示该页最近未被访问,但已被修改,并不是很好的淘汰页。
➢3类(A=1,M=0):最近已被访问,但未被修改:该页有可能再被访问。
➢4类(A=1,M=1):最近已被访问且被修改,该页可能再被访问。
执行过程可分成以下三步:

(1)从指针所指示的当前位置开始,扫描循环队列,寻找A=0且M=0的第一类页面,将所遇到的第一个页面作为所选中的淘汰页。在第一次扫描期间不改变访问位A。
(2)如果第一步失败,即查找一周后未遇到第一类页面,则开始第二轮扫描,寻找A=0且M=1的第二类页面,将所遇到的第一个这类页面作为淘汰页。在第二轮扫描期间,将所有扫描过的页面的访问位A都置0
(3)如果第二步也失败,亦即未找到第二类页面,则将指针返回到开始的位置,并将所有的访问位复0。然后重复第一步,如果仍失败,必要时再重复第二步,此时一定能找到被淘汰的页 。

抖动与工作集

有效访问时间是指访问存储器所需时间的平均值。假设使用了快表,则CPU访问内存时有以下三种情况:
设内存读写周期为t,查找快表时间为λ,缺页中断处理时间为ɛ

  • 页面在内存且页表项在快表中:只需一次访问内存
    EAT= λ + t
  • 页面在内存但页表项不在快表中:需两次访问内存,一次读取页
    表,一次读取数据,另外还需更新快表。
    EAT= λ + t + t + λ=2(λ + t)
  • 页面不在内存:考虑查找快表时间、查找页表时间、缺页中断处
    理时间、更新快表时间、访问实际物理地址时间
    EAT= λ + t +ɛ + λ + t = ɛ + 2(λ + t)
    引入快表命中率为α,缺页中断率为f,则有效访问内存
    时间为:
    EAT= λ + α t + (1- α)[t + f(t +ɛ +λ) + (1-f)(t+λ)]

当进程要求装入新的页面或程序段时,如果当前没有足够的空闲空间,需要交换一些页面或段到外存。如果被交换出去的页面或段很快将被进程使用,则
又需要将其换入内存。
如果系统花费大量的时间把程序和数据频繁地换入和换出内存而不是执行用户指令,那么,称系统出现了抖动。出现抖动现象时,系统显得非常繁忙,但是吞吐量很低,甚至产出为零。
根本原因:选择的页面或段不恰当。显然,防止的根本手段给进程分配足够多的帧。

抖动:如果运行进程的大部分时间都用于页面的换入/换出,而几乎不能完成任何有效的工作,则称此进程处于抖动状态。抖动又称为颠簸。
抖动分为:

  • 局部抖动

  • 全局抖动

抖动产生的原因有:

进程分配的物理块太少
置换算法选择不当
全局置换使抖动传播

只要分配的帧空间能覆盖整个局部就不会出现太多的缺页!工作集模型就用来计算一个局部的宽度(帧数)。

工作集定义:

请求分段存储管理方式

一、段表机制
在虚拟存储系统中的所有段表,其段描述子增加五个信息标识位。

(1)状态位(存在位)P:用于说明该段是否已调入内存,供程序访问时参考;
P=0,该段不在内存。P=1,该段在内存
(2)访问位A:用于记录本段在一段时间内被访问的次数,提供给置换算法选择换出段时参考。A=0,该段未被访问。 A=1,该段被访问
(3)修改位M:用于表示该段在调入内存后是否被修改过,也是提供给置换算法在换出段时是否将该段写回外存作参考。M=0,该段在内存中未被修改。M=1,该段在内存中已经被修改
(4)外存地址:用于指出该段在外存上的地址,供调入该段时使用。
(5)增补位:说明该分段是否允许扩展,此外如该段已被增补,则在写回辅存时,需另选择辅存空间;

二、缺页中断机构,进程运行时发现所需的段尚未调入内存,便由缺段中断机构产生一个缺段中断信号,进入OS后由缺段中断处理程序将所需要的段调入内存。需要在一条指令的执行期间,产生和处理中断,以及一条指令执行期间,可能会产生多次缺段中断。

三、地址变换机构,其在分段系统地址变换机构基础上形成,增加了缺段中断的请求和处理功能。

为了实现分段共享,可在系统中配置一张共享段表,所有共享段都在共享段表
中占有一个表项。

共享进程计数:记录有多少进程共享该段。
存取控制字段:对同一共享段,不同进程有不同的操作权限。
段号:共享段在不同进程中有不同的段号。

共享段的分配与回收

  • 共享段的分配
    在为共享段分配内存时,对第一个请求使用该共享段的进程,由系统为该共享段分配一物理区,再把共享段调入该区,同时将该区的始址填入请求进程的段表的相应项中,还须在共享段表中增加一表项,填写有关数据,把count置为1;之后,当又有其它进程需要调用该共享段时,由于该共享段已被调入内存,故此时无须再为该段分配内存,而只需在调用进程的段表中,增加一表项,填写该共享段的物理地址;在共
    享段表中,填上调用进程的进程名、存取控制等,再执行count:=count+1操作,以表明有两个进程共享该段。

  • 共享段的回收
    当共享此段的某进程不再需要该段时,应将该段释放,包括撤消该进程段表中共享段所对应的表项,以及执行count:=count-1操作。若count结果为0,则须由系统回收该共享段的物理内存,以及取消在共享段表中该段所对应的表项,表明此时已没有进程使用该段;否则(减1结果不为0), 则只是取消调用者进程在共享段表中的有关记录。

环保护

低编号的环具有高优先权。OS核心处于0环内;某些重要的实用程序和操作系统服务,占居中间环;而一般的应用程序在外环上。

环保护的基本原则是:

  • 一个程序可以访问驻留在相同环或较低特权环中的
    数据;
  • 一个程序可以调用驻留在相同环或较高特权环中的
    服务。

在虚拟段式存储管理中,若逻辑地址的段内地址大于段表中该段的段长,则发生(越界中断) 。

这篇关于电子科大操作系统期末复习之存储器管理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/371649

相关文章

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

软考系统规划与管理师考试证书含金量高吗?

2024年软考系统规划与管理师考试报名时间节点: 报名时间:2024年上半年软考将于3月中旬陆续开始报名 考试时间:上半年5月25日到28日,下半年11月9日到12日 分数线:所有科目成绩均须达到45分以上(包括45分)方可通过考试 成绩查询:可在“中国计算机技术职业资格网”上查询软考成绩 出成绩时间:预计在11月左右 证书领取时间:一般在考试成绩公布后3~4个月,各地领取时间有所不同

安全管理体系化的智慧油站开源了。

AI视频监控平台简介 AI视频监控平台是一款功能强大且简单易用的实时算法视频监控系统。它的愿景是最底层打通各大芯片厂商相互间的壁垒,省去繁琐重复的适配流程,实现芯片、算法、应用的全流程组合,从而大大减少企业级应用约95%的开发成本。用户只需在界面上进行简单的操作,就可以实现全视频的接入及布控。摄像头管理模块用于多种终端设备、智能设备的接入及管理。平台支持包括摄像头等终端感知设备接入,为整个平台提

从状态管理到性能优化:全面解析 Android Compose

文章目录 引言一、Android Compose基本概念1.1 什么是Android Compose?1.2 Compose的优势1.3 如何在项目中使用Compose 二、Compose中的状态管理2.1 状态管理的重要性2.2 Compose中的状态和数据流2.3 使用State和MutableState处理状态2.4 通过ViewModel进行状态管理 三、Compose中的列表和滚动

Linux操作系统 初识

在认识操作系统之前,我们首先来了解一下计算机的发展: 计算机的发展 世界上第一台计算机名叫埃尼阿克,诞生在1945年2月14日,用于军事用途。 后来因为计算机的优势和潜力巨大,计算机开始飞速发展,并产生了一个当时一直有效的定律:摩尔定律--当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。 那么相应的,计算机就会变得越来越快,越来越小型化。

Sentinel 高可用流量管理框架

Sentinel 是面向分布式服务架构的高可用流量防护组件,主要以流量为切入点,从限流、流量整形、熔断降级、系统负载保护、热点防护等多个维度来帮助开发者保障微服务的稳定性。 Sentinel 具有以下特性: 丰富的应用场景:Sentinel 承接了阿里巴巴近 10 年的双十一大促流量的核心场景,例如秒杀(即突发流量控制在系统容量可以承受的范围)、消息削峰填谷、集群流量控制、实时熔断下游不可用应

NGINX轻松管理10万长连接 --- 基于2GB内存的CentOS 6.5 x86-64

转自:http://blog.chinaunix.net/xmlrpc.php?r=blog/article&uid=190176&id=4234854 一 前言 当管理大量连接时,特别是只有少量活跃连接,NGINX有比较好的CPU和RAM利用率,如今是多终端保持在线的时代,更能让NGINX发挥这个优点。本文做一个简单测试,NGINX在一个普通PC虚拟机上维护100k的HTTP

PMBOK® 第六版 规划进度管理

目录 读后感—PMBOK第六版 目录 规划进度管理主要关注为整个项目期间的进度管理提供指南和方向。以下是两个案例,展示了进度管理中的复杂性和潜在的冲突: 案例一:近期,一个长期合作的客户因政策要求,急需我们为多家医院升级一个小功能。在这个过程中出现了三个主要问题: 在双方确认接口协议后,客户私自修改接口并未通知我们,直到催进度时才发现这个问题关于UI设计的部分,后台开发人员未将其传递给

【408数据结构】散列 (哈希)知识点集合复习考点题目

苏泽  “弃工从研”的路上很孤独,于是我记下了些许笔记相伴,希望能够帮助到大家    知识点 1. 散列查找 散列查找是一种高效的查找方法,它通过散列函数将关键字映射到数组的一个位置,从而实现快速查找。这种方法的时间复杂度平均为(

PHP原理之内存管理中难懂的几个点

PHP的内存管理, 分为俩大部分, 第一部分是PHP自身的内存管理, 这部分主要的内容就是引用计数, 写时复制, 等等面向应用的层面的管理. 而第二部分就是今天我要介绍的, zend_alloc中描写的关于PHP自身的内存管理, 包括它是如何管理可用内存, 如何分配内存等. 另外, 为什么要写这个呢, 因为之前并没有任何资料来介绍PHP内存管理中使用的策略, 数据结构, 或者算法. 而在我们