【原创】(五)Linux进程调度-CFS调度器

2024-02-20 14:38
文章标签 linux 进程 调度 原创 cfs

本文主要是介绍【原创】(五)Linux进程调度-CFS调度器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 概述

Completely Fair Scheduler,完全公平调度器,用于Linux系统中普通进程的调度。
CFS采用了红黑树算法来管理所有的调度实体sched_entity
算法效率为O(log(n))。
CFS跟踪调度实体sched_entity的虚拟运行时间vruntime
平等对待运行队列中的调度实体sched_entity,将执行时间少的调度实体sched_entity排列到红黑树的左边。
老规矩,先上张图片来直观了解一下原理:
在这里插入图片描述
每个sched_latency周期内,根据各个任务的权重值,可以计算出运行时间runtime
运行时间runtime可以转换成虚拟运行时间vruntime
根据虚拟运行时间的大小,插入到CFS红黑树中,虚拟运行时间少的调度实体放置到左边;
在下一次任务调度的时候,选择虚拟运行时间少的调度实体来运行;
在开始本文之前,建议先阅读下(一)Linux进程调度器-基础
开始探索之旅!

2. 数据结构

2.1 调度类

Linux内核抽象了一个调度类struct sched_class,这是一种典型的面向对象的设计思想,将共性的特征抽象出来封装成类
在实例化各个调度器的时候,可以根据具体的调度算法来实现。
这种方式做到了高内聚低耦合,同时又很容易扩展新的调度器。
在这里插入图片描述
在调度核心代码kernel/sched/core.c中,使用的方式是task->sched_class->xxx_func
其中task表示的是描述任务的结构体struct task_struck,在该结构体中包含了任务所使用的调度器
进而能找到对应的函数指针来完成调用执行,有点类似于C++中的多态机制。

2.2 rq/cfs_rq/task_struct/task_group/sched_entity

struct rq:每个CPU都有一个对应的运行队列;
struct cfs_rq:CFS运行队列,该结构中包含了struct rb_root_cached红黑树,
用于链接调度实体struct sched_entity
rq运行队列中对应了一个CFS运行队列,此外,在task_group结构中也会为每个CPU再维护一个CFS运行队列;
struct task_struct:任务的描述符,包含了进程的所有信息,该结构中的struct sched_entity,用于参与CFS的调度;
struct task_group:组调度(参考前文),Linux支持将任务分组来对CPU资源进行分配管理,
该结构中为系统中的每个CPU都分配了struct sched_entity调度实体和struct cfs_rq运行队列
其中struct sched_entity用于参与CFS的调度;
struct sched_entity:调度实体,这个也是CFS调度管理的对象了;
来一张图看看它们之间的组织关系:
在这里插入图片描述
struct sched_entity结构体字段注释如下:

struct sched_entity {/* For load-balancing: */struct load_weight      load;                   //调度实体的负载权重值struct rb_node          run_node;             //用于连接到CFS运行队列的红黑树中的节点struct list_head        group_node;          //用于连接到CFS运行队列的cfs_tasks链表中的节点unsigned int            on_rq;              //用于表示是否在运行队列中u64             exec_start;             //当前调度实体的开始执行时间u64             sum_exec_runtime;   //调度实体执行的总时间u64             vruntime;           //虚拟运行时间,这个时间用于在CFS运行队列中排队u64             prev_sum_exec_runtime;  //上一个调度实体运行的总时间u64             nr_migrations;      //负载均衡struct sched_statistics     statistics;     //统计信息#ifdef CONFIG_FAIR_GROUP_SCHEDint             depth;      //任务组的深度,其中根任务组的深度为0,逐级往下增加struct sched_entity     *parent;        //指向调度实体的父对象/* rq on which this entity is (to be) queued: */struct cfs_rq           *cfs_rq;        //指向调度实体归属的CFS队列,也就是需要入列的CFS队列/* rq "owned" by this entity/group: */struct cfs_rq           *my_q;      //指向归属于当前调度实体的CFS队列,用于包含子任务或子的任务组
#endif#ifdef CONFIG_SMP/** Per entity load average tracking.** Put into separate cache line so it does not* collide with read-mostly values above.*/struct sched_avg        avg ____cacheline_aligned_in_smp;   //用于调度实体的负载计算(`PELT`)
#endif
};

struct cfs_rq结构体的关键字段注释如下:

/* CFS-related fields in a runqueue */
struct cfs_rq {struct load_weight load;        //CFS运行队列的负载权重值unsigned int nr_running, h_nr_running;  //nr_running:运行的调度实体数(参与时间片计算)u64 exec_clock;     //运行时间u64 min_vruntime;   //最少的虚拟运行时间,调度实体入队出队时需要进行增减处理
#ifndef CONFIG_64BITu64 min_vruntime_copy;
#endifstruct rb_root_cached tasks_timeline;   //红黑树,用于存放调度实体/** 'curr' points to currently running entity on this cfs_rq.* It is set to NULL otherwise (i.e when none are currently running).*/struct sched_entity *curr, *next, *last, *skip; //分别指向当前运行的调度实体、下一个调度的调度实体、CFS运行队列中排最后的调度实体、跳过运行的调度实体#ifdef  CONFIG_SCHED_DEBUGunsigned int nr_spread_over;
#endif#ifdef CONFIG_SMP/** CFS load tracking*/struct sched_avg avg;       //计算负载相关u64 runnable_load_sum;unsigned long runnable_load_avg;        //基于PELT的可运行平均负载
#ifdef CONFIG_FAIR_GROUP_SCHEDunsigned long tg_load_avg_contrib;      //任务组的负载贡献unsigned long propagate_avg;
#endifatomic_long_t removed_load_avg, removed_util_avg;
#ifndef CONFIG_64BITu64 load_last_update_time_copy;
#endif#ifdef CONFIG_FAIR_GROUP_SCHED/**   h_load = weight * f(tg)** Where f(tg) is the recursive weight fraction assigned to* this group.*/unsigned long h_load;u64 last_h_load_update;struct sched_entity *h_load_next;
#endif /* CONFIG_FAIR_GROUP_SCHED */
#endif /* CONFIG_SMP */#ifdef CONFIG_FAIR_GROUP_SCHEDstruct rq *rq;  /* cpu runqueue to which this cfs_rq is attached */     //指向CFS运行队列所属的CPU RQ运行队列/** leaf cfs_rqs are those that hold tasks (lowest schedulable entity in* a hierarchy). Non-leaf lrqs hold other higher schedulable entities* (like users, containers etc.)** leaf_cfs_rq_list ties together list of leaf cfs_rq's in a cpu. This* list is used during load balance.*/int on_list;struct list_head leaf_cfs_rq_list;struct task_group *tg;  /* group that "owns" this runqueue */       //CFS运行队列所属的任务组#ifdef CONFIG_CFS_BANDWIDTHint runtime_enabled;    //CFS运行队列中使用CFS带宽控制u64 runtime_expires;    //到期的运行时间s64 runtime_remaining;      //剩余的运行时间u64 throttled_clock, throttled_clock_task;  //限流时间相关u64 throttled_clock_task_time;int throttled, throttle_count;      //throttled:限流,throttle_count:CFS运行队列限流次数struct list_head throttled_list;    //运行队列限流链表节点,用于添加到cfs_bandwidth结构中的cfttle_cfs_rq链表中
#endif /* CONFIG_CFS_BANDWIDTH */
#endif /* CONFIG_FAIR_GROUP_SCHED */
};

3. 流程分析

整个流程分析,围绕着CFS调度类实体:fair_sched_class中的关键函数来展开。
先来看看fair_sched_class都包含了哪些函数:

/** All the scheduling class methods:*/
const struct sched_class fair_sched_class = {.next           = &idle_sched_class,.enqueue_task       = enqueue_task_fair,.dequeue_task       = dequeue_task_fair,.yield_task     = yield_task_fair,.yield_to_task      = yield_to_task_fair,.check_preempt_curr = check_preempt_wakeup,.pick_next_task     = pick_next_task_fair,.put_prev_task      = put_prev_task_fair,#ifdef CONFIG_SMP.select_task_rq     = select_task_rq_fair,.migrate_task_rq    = migrate_task_rq_fair,.rq_online      = rq_online_fair,.rq_offline     = rq_offline_fair,.task_dead      = task_dead_fair,.set_cpus_allowed   = set_cpus_allowed_common,
#endif.set_curr_task          = set_curr_task_fair,.task_tick      = task_tick_fair,.task_fork      = task_fork_fair,.prio_changed       = prio_changed_fair,.switched_from      = switched_from_fair,.switched_to        = switched_to_fair,.get_rr_interval    = get_rr_interval_fair,.update_curr        = update_curr_fair,#ifdef CONFIG_FAIR_GROUP_SCHED.task_change_group  = task_change_group_fair,
#endif
};

3.1 runtime与vruntime

CFS调度器没有时间片的概念了,而是根据实际的运行时间和虚拟运行时间来对任务进行排序,从而选择调度。
那么,运行时间和虚拟运行时间是怎么计算的呢?看一下流程调用:
在这里插入图片描述
Linux内核默认的sysctl_sched_latency是6ms,这个值用户态可设。
sched_period用于保证可运行任务都能至少运行一次的时间间隔;
当可运行任务大于8个的时候,sched_period的计算则需要根据任务个数乘以最小调度颗粒值,这个值系统默认为0.75ms;
每个任务的运行时间计算,是用sched_period值,去乘以该任务在整个CFS运行队列中的权重占比;
虚拟运行的时间 = 实际运行时间 * NICE_0_LOAD / 该任务的权重;
还是来看一个实例吧,以5个Task为例,其中每个Task的nice值不一样(优先级不同),对应到的权重值在内核中提供了一个转换数组:

const int sched_prio_to_weight[40] = {/* -20 */     88761,     71755,     56483,     46273,     36291,/* -15 */     29154,     23254,     18705,     14949,     11916,/* -10 */      9548,      7620,      6100,      4904,      3906,/*  -5 */      3121,      2501,      1991,      1586,      1277,/*   0 */      1024,       820,       655,       526,       423,/*   5 */       335,       272,       215,       172,       137,/*  10 */       110,        87,        70,        56,        45,/*  15 */        36,        29,        23,        18,        15,
};

图来了:
在这里插入图片描述

3.2 CFS调度tick

CFS调度器中的tick函数为task_tick_fair,系统中每个调度tick都会调用到,此外如果使用了hrtimer,也会调用到这个函数。
流程如下:
在这里插入图片描述
主要的工作包括:
更新运行时的各类统计信息,比如vruntime, 运行时间、负载值、权重值等;
检查是否需要抢占,主要是比较运行时间是否耗尽,以及vruntime的差值是否大于运行时间等;
来一张图,感受一下update_curr函数的相关信息更新吧:
在这里插入图片描述

3.3 任务出队入队

当任务进入可运行状态时,需要将调度实体放入到红黑树中,完成入队操作;
当任务退出可运行状态时,需要将调度实体从红黑树中移除,完成出队操作;
CFS调度器,使用enqueue_task_fair函数将任务入队到CFS队列,使用dequeue_task_fair函数将任务从CFS队列中出队操作。
在这里插入图片描述
出队与入队的操作中,核心的逻辑可以分成两部分:1)更新运行时的数据,比如负载、权重、组调度的占比等等;2)将sched_entity插入红黑树,或者从红黑树移除;
由于dequeue_task_fair大体的逻辑类似,不再深入分析;
这个过程中,涉及到了CPU负载计算、task_group组调度、CFS Bandwidth带宽控制等,这些都在前边的文章中分析过,可以结合进行理解;

3.3 任务创建

在父进程通过fork创建子进程的时候,task_fork_fair函数会被调用,这个函数的传入参数是子进程的task_struct。该函数的主要作用,就是确定子任务的vruntime,因此也能确定子任务的调度实体在红黑树RB中的位置。

task_fork_fair本身比较简单,流程如下图:
在这里插入图片描述

3.4 任务选择

每当进程任务切换的时候,也就是schedule函数执行时,调度器都需要选择下一个将要执行的任务。
在CFS调度器中,是通过pick_next_task_fair函数完成的,流程如下:
在这里插入图片描述
当需要进程任务切换的时候,pick_next_task_fair函数的传入参数中包含了需要被切换出去的任务,也就是pre_task
pre_task不是普通进程时,也就是调度类不是CFS,那么它就不使用sched_entity的调度实体来参与调度,因此会执行simple分支,通过put_pre_task函数来通知系统当前的任务需要被切换,而不是通过put_prev_entity函数来完成;
pre_task是普通进程时,调用pick_next_entity来选择下一个执行的任务,这个选择过程实际是有两种情况:当调度实体对应task时,do while()遍历一次,当调度实体对应task_group是,则需要遍历任务组来选择下一个执行的任务了。
put_prev_entity,用于切换任务前的准备工作,更新运行时的统计数据,并不进行dequeue的操作,其中需要将CFS队列的curr指针置位成NULL;
set_next_entity,用于设置下一个要运行的调度实体,设置CFS队列的curr指针;
如果使能了hrtimer,则将hrtimer的到期时间设置为调度实体的剩余运行时间;
暂且分析到这吧,CFS调度器涵盖的内容还是挺多的,fair.c一个文件就有将近一万行代码,相关内容的分析也分散在前边的文章中了,感兴趣的可以去看看。

这篇关于【原创】(五)Linux进程调度-CFS调度器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/728551

相关文章

Linux系统中卸载与安装JDK的详细教程

《Linux系统中卸载与安装JDK的详细教程》本文详细介绍了如何在Linux系统中通过Xshell和Xftp工具连接与传输文件,然后进行JDK的安装与卸载,安装步骤包括连接Linux、传输JDK安装包... 目录1、卸载1.1 linux删除自带的JDK1.2 Linux上卸载自己安装的JDK2、安装2.1

Linux卸载自带jdk并安装新jdk版本的图文教程

《Linux卸载自带jdk并安装新jdk版本的图文教程》在Linux系统中,有时需要卸载预装的OpenJDK并安装特定版本的JDK,例如JDK1.8,所以本文给大家详细介绍了Linux卸载自带jdk并... 目录Ⅰ、卸载自带jdkⅡ、安装新版jdkⅠ、卸载自带jdk1、输入命令查看旧jdkrpm -qa

Linux samba共享慢的原因及解决方案

《Linuxsamba共享慢的原因及解决方案》:本文主要介绍Linuxsamba共享慢的原因及解决方案,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录linux samba共享慢原因及解决问题表现原因解决办法总结Linandroidux samba共享慢原因及解决

新特性抢先看! Ubuntu 25.04 Beta 发布:Linux 6.14 内核

《新特性抢先看!Ubuntu25.04Beta发布:Linux6.14内核》Canonical公司近日发布了Ubuntu25.04Beta版,这一版本被赋予了一个活泼的代号——“Plu... Canonical 昨日(3 月 27 日)放出了 Beta 版 Ubuntu 25.04 系统镜像,代号“Pluc

Linux安装MySQL的教程

《Linux安装MySQL的教程》:本文主要介绍Linux安装MySQL的教程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录linux安装mysql1.Mysql官网2.我的存放路径3.解压mysql文件到当前目录4.重命名一下5.创建mysql用户组和用户并修

Java时间轮调度算法的代码实现

《Java时间轮调度算法的代码实现》时间轮是一种高效的定时调度算法,主要用于管理延时任务或周期性任务,它通过一个环形数组(时间轮)和指针来实现,将大量定时任务分摊到固定的时间槽中,极大地降低了时间复杂... 目录1、简述2、时间轮的原理3. 时间轮的实现步骤3.1 定义时间槽3.2 定义时间轮3.3 使用时

Linux上设置Ollama服务配置(常用环境变量)

《Linux上设置Ollama服务配置(常用环境变量)》本文主要介绍了Linux上设置Ollama服务配置(常用环境变量),Ollama提供了多种环境变量供配置,如调试模式、模型目录等,下面就来介绍一... 目录在 linux 上设置环境变量配置 OllamPOgxSRJfa手动安装安装特定版本查看日志在

Linux系统之主机网络配置方式

《Linux系统之主机网络配置方式》:本文主要介绍Linux系统之主机网络配置方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、查看主机的网络参数1、查看主机名2、查看IP地址3、查看网关4、查看DNS二、配置网卡1、修改网卡配置文件2、nmcli工具【通用

Linux系统之dns域名解析全过程

《Linux系统之dns域名解析全过程》:本文主要介绍Linux系统之dns域名解析全过程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、dns域名解析介绍1、DNS核心概念1.1 区域 zone1.2 记录 record二、DNS服务的配置1、正向解析的配置

Linux修改pip和conda缓存路径的几种方法

《Linux修改pip和conda缓存路径的几种方法》在Python生态中,pip和conda是两种常见的软件包管理工具,它们在安装、更新和卸载软件包时都会使用缓存来提高效率,适当地修改它们的缓存路径... 目录一、pip 和 conda 的缓存机制1. pip 的缓存机制默认缓存路径2. conda 的缓