内核分析 第二周

2024-03-25 20:30
文章标签 分析 内核 第二周

本文主要是介绍内核分析 第二周,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

基本数据结构

/* CPU-specific state of this task */
struct Thread {unsigned long       ip;unsigned long       sp;
};typedef struct PCB{int pid;volatile long state;    /* -1 unrunnable, 0 runnable, >0 stopped */char stack[KERNEL_STACK_SIZE];/* CPU-specific state of this task */struct Thread thread;unsigned long   task_entry;struct PCB *next;
}tPCB;

内核启动

  1. 在 linux-3.9.4/include/linux/start_kernel.h 增加外部声明 void __init my_start_kernel(void)
  2. 在 linux-3.9.4/init/main.c 中的 start_kernel 函数中调用 my_start_kernel

由此可见, start_kernel 函数担任了内核初始化工作.

my_start_kernel 函数具体实现是在 mymain.c 进行初始化工作.

void __init my_start_kernel(void)
{int pid = 0;//初始j进程 pid 为 0task[pid].pid = pid;//状态为 runnabletask[pid].state = 0;/* -1 unrunnable, 0 runnable, >0 stopped *///进程处理函数task[pid].task_entry = task[pid].thread.ip = (unsigned long)my_process;//堆栈指向该进程栈的栈顶task[pid].thread.sp = (unsigned long)&task[pid].stack[KERNEL_STACK_SIZE-1];//该进程的下一个进程为本身task[pid].next = &task[pid];//类似上面初始化工作. 用 task[0] 初始化 task[1] task[2] ..//task[MAX_TASK_NUM-1]. 但修改进程 pid, state, stack, nextint i;for(i=1;i<MAX_TASK_NUM;i++){memcpy(&task[i],&task[0],sizeof(tPCB));task[i].pid = i;task[i].state = -1;task[i].thread.sp = (unsigned long)&task[i].stack[KERNEL_STACK_SIZE-1];/*task[1].next = task[0].next; task[0].next = task[1]task[2].next = task[1].next; task[1].next = task[2]...将所有进程通过有环链表连接起来.*/task[i].next = task[i-1].next;task[i-1].next = &task[i];}/* start process 0 by task[0] */pid = 0;//初始化 my_current_task 为 task[0]my_current_task = &task[pid];asm volatile("movl %1,%%esp\n\t"     /* 栈的 esp 指向 task[0].thread.sp 的地址 */"pushl %1\n\t"          /* task[0].thread.sp 压栈 */"pushl %0\n\t"          /* task[0].thread.ip 压栈 */"ret\n\t"               /* 将 task[0].thread.ip 保存到 cs:eip 下一条指令执行就从task[0].thread.ip 处开始执行, 即执行 my_process 函数*/"popl %%ebp\n\t"        /* 将 task[0].thread.sp 保存到 ebp */:: "c" (task[pid].thread.ip),"d" (task[pid].thread.sp)   /* input c or d mean %ecx/%edx*/);
}

执行完 my_start_kernel 及其他系统启动函数, 最终系统启动.

问题: start_kernel 如何与 mymain.c 中的 my_start_kernel 关联的?

进程运行

目前每个 task 的入口都是 my_process.

void my_process(void) {int i = 0;while(1) {//i 会溢出. 需要在一定大小进行清零i++;//该值越大, 进程切换越不及时.int sched_check_feq = 10000000;//每执行 sched_check_feq 检查一次是否进行内核切换.if(i%sched_check_feq == 0) {printk(KERN_NOTICE "this is process %d -\n",my_current_task->pid);if(my_need_sched == 1){my_need_sched = 0;my_schedule();}printk(KERN_NOTICE "this is process %d +\n",my_current_task->pid);}if (i == sched_check_feq * 1000) {i = 0;}}
}

中断

在 arch/x86/kernel/time.c 中 setup_default_timer_irq 调用 setup_irq(0, &irq0),
而 irq0.handler = timer_interrupt. timer_interrupt 中调用了 my_timer_handler

因此, 每次时钟中断都会调用 my_timer_handler 函数.

/** Called by timer interrupt.* it runs in the name of current running process,* so it use kernel stack of current running process*/
void my_timer_handler(void)
{
#if 1//该值越大, 进程切换速度越慢. 越小, 进程切换越快.int sched_feq = 1000.//每次时钟中断, time_count 加 1, 当 time_count 整除 1000 时, 重置 my_need_sched 为 1,//my_need_sched = 1 表明下次要进行进程切换. 注意这里 time_count//在制定数量时要重置为 0, 否则 int 类型溢出if(time_count%sched_feq == 0 && my_need_sched != 1) {printk(KERN_NOTICE ">>>my_timer_handler here<<<\n");my_need_sched = 1;}time_count ++ ;if (time_count == 1000000) {time_count = 0;}
#endifreturn;
}

进程调度

以下以 task[0] 切换到 task[1] 为例.

void my_schedule(void)
{tPCB * next;tPCB * prev;//由于 my_current_task 已经在 my_start_kernel 初始化了, 因此, 这里条件不成立.if(my_current_task == NULL|| my_current_task->next == NULL){return;}printk(KERN_NOTICE ">>>my_schedule<<<\n");//next 指向 task[1]next = my_current_task->next;//prev 指向 task[0]prev = my_current_task;//显然条件成立, 因为 task[1].[state] = 0if(next->state == 0)/* -1 unrunnable, 0 runnable, >0 stopped */{/* switch to next process */asm volatile(//保持现场"pushl %%ebp\n\t"       /* ebp 压栈, 保存 task[0] 的栈基址 */"movl %%esp,%0\n\t"     /* 保持 esp 到内存变量 task[0]->thread.sp *///切换到 task[1] 的栈"movl %2,%%esp\n\t"     /* 将内存变量 task[1]->thread.sp 赋值给 esp,此时完成了进程栈的切换*///task 下次执行开始地址."movl $1f,%1\n\t"       /* 将 1: 的地址保存到 task[0]->thread.ip *///进行进程切换"pushl %3\n\t"          /* task[1]->thread.ip 压栈."ret\n\t"               /* 将 task[1]->thread.ip 从栈弹出放入 cs:eip,调用 task[1] 的 my_process 函数 *///下次 切换到 task[0] 从此处开始执行"1:\t"                  /*  *///如果切换到 task[0], 先将 ebp 出栈, 恢复 task[0] 的栈"popl %%ebp\n\t": "=m" (prev->thread.sp),"=m" (prev->thread.ip): "m" (next->thread.sp),"m" (next->thread.ip));//已经执行完 task[1] 的 entry 函数. my_current_task 指向 task[1]my_current_task = next;printk(KERN_NOTICE ">>>switch %d to %d<<<\n",prev->pid,next->pid);}else{//标记 task[1]->state = 0 可以执行next->state = 0;//my_current_task 指向 task[1]my_current_task = next;printk(KERN_NOTICE ">>>switch %d to %d<<<\n",prev->pid,next->pid);/* switch to new process */asm volatile("pushl %%ebp\n\t"       /* 保存 task[0] 栈的 ebp, 压栈, 是否可以保存在内存? */"movl %%esp,%0\n\t"     /* task[0] 的 esp 保存在 task[0]->thread.sp */"movl %2,%%esp\n\t"     /* task[1] 的 esp 保持在 esp */"movl %2,%%ebp\n\t"     /* 将 task[1]->thread.sp 保持在 ebp*/"movl $1f,%1\n\t"       /* 将 1: 地址保存在 task[0]->thread.ip, 下次task[0] 从 1: 处开始执行 */"pushl %3\n\t"          /* task[1]->thread.ip 压栈*/"ret\n\t"               /* cs:eip = task[1]->thread.ip, 从 task[1]->thread.ip处开始执行, 即调用 my_process */: "=m" (prev->thread.sp),"=m" (prev->thread.ip): "m" (next->thread.sp),"m" (next->thread.ip));}return;
}

运行结果图

总结

内核启动后, 调用 start_kernel, 其中调用了 my_start_kernel 函数. 而
my_start_kernel 的内联汇编部分将系统的 cs:eip 指向 task[0].task_entry
(my_process 的地址), 系统栈指向 task[0].thread.sp. cpu 于是开始执行
my_process. 而 my_process 是死循环while(1), 因此一直执行.

此外, 系统每过一段时间会发生一次时钟中断, time_count 加 1. 当
time_count % 1000 == 1 且 my_need_sched != 1 时, 重置 my_need_sched 为 1.
这样, my_process 中的下次执行 while(1) 发现 my_need_sched == 1, 于是根据
my_schedule 调度算法进行进程切换. 将系统当前栈指向 task[1] 的 esp, 将 cs:eip 指向task[1].task_entry(my_process 地址). 于是系统从 my_process 开始执行. (注意我们可以为每个 task 分配不同的处理函数). 即通过时钟中断进行进程切换.

如此往复, 进程从 task[0] -> task[1] -> task[2] -> task[3] -> task[0] 这样进行
无限循环. 当然, 我们可以增加 task 个数, 对 task 进行优先级调整, 权重调整, 需要
改变的仅仅是 my_schedule 部分.

至此, 整个系统就运行起来了.

进程调度算法(my_schedule):

开始先执行 task[0] 第一次调度执行 my_schedule 的 else 部分, 然后切换到 task[1] 执行它的 my_process 函数. 执行完之后, 再次调度, 执行 my_schedule 的 else 部分. 然后切换到 task[2] 执行它的my_process 函数. 之后执行 task[0]. 执行 my_schedule 的 if 部分,切换到 task[1], 执行 my_schedule 的 if 部分; 切换到 task[1], 执行 my_schedule 的 if 部分,如此往复.

刘文学 原创作品转载请注明出处 http://blog.csdn.net/wdxz6547/article/details/50815957 《Linux内核分析》MOOC课程http://mooc.study.163.com/course/USTC-1000029000

这篇关于内核分析 第二周的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/846159

相关文章

Springboot中分析SQL性能的两种方式详解

《Springboot中分析SQL性能的两种方式详解》文章介绍了SQL性能分析的两种方式:MyBatis-Plus性能分析插件和p6spy框架,MyBatis-Plus插件配置简单,适用于开发和测试环... 目录SQL性能分析的两种方式:功能介绍实现方式:实现步骤:SQL性能分析的两种方式:功能介绍记录

最长公共子序列问题的深度分析与Java实现方式

《最长公共子序列问题的深度分析与Java实现方式》本文详细介绍了最长公共子序列(LCS)问题,包括其概念、暴力解法、动态规划解法,并提供了Java代码实现,暴力解法虽然简单,但在大数据处理中效率较低,... 目录最长公共子序列问题概述问题理解与示例分析暴力解法思路与示例代码动态规划解法DP 表的构建与意义动

C#使用DeepSeek API实现自然语言处理,文本分类和情感分析

《C#使用DeepSeekAPI实现自然语言处理,文本分类和情感分析》在C#中使用DeepSeekAPI可以实现多种功能,例如自然语言处理、文本分类、情感分析等,本文主要为大家介绍了具体实现步骤,... 目录准备工作文本生成文本分类问答系统代码生成翻译功能文本摘要文本校对图像描述生成总结在C#中使用Deep

Redis主从/哨兵机制原理分析

《Redis主从/哨兵机制原理分析》本文介绍了Redis的主从复制和哨兵机制,主从复制实现了数据的热备份和负载均衡,而哨兵机制可以监控Redis集群,实现自动故障转移,哨兵机制通过监控、下线、选举和故... 目录一、主从复制1.1 什么是主从复制1.2 主从复制的作用1.3 主从复制原理1.3.1 全量复制

Redis主从复制的原理分析

《Redis主从复制的原理分析》Redis主从复制通过将数据镜像到多个从节点,实现高可用性和扩展性,主从复制包括初次全量同步和增量同步两个阶段,为优化复制性能,可以采用AOF持久化、调整复制超时时间、... 目录Redis主从复制的原理主从复制概述配置主从复制数据同步过程复制一致性与延迟故障转移机制监控与维

Redis连接失败:客户端IP不在白名单中的问题分析与解决方案

《Redis连接失败:客户端IP不在白名单中的问题分析与解决方案》在现代分布式系统中,Redis作为一种高性能的内存数据库,被广泛应用于缓存、消息队列、会话存储等场景,然而,在实际使用过程中,我们可能... 目录一、问题背景二、错误分析1. 错误信息解读2. 根本原因三、解决方案1. 将客户端IP添加到Re

Linux内核之内核裁剪详解

《Linux内核之内核裁剪详解》Linux内核裁剪是通过移除不必要的功能和模块,调整配置参数来优化内核,以满足特定需求,裁剪的方法包括使用配置选项、模块化设计和优化配置参数,图形裁剪工具如makeme... 目录简介一、 裁剪的原因二、裁剪的方法三、图形裁剪工具四、操作说明五、make menuconfig

Redis主从复制实现原理分析

《Redis主从复制实现原理分析》Redis主从复制通过Sync和CommandPropagate阶段实现数据同步,2.8版本后引入Psync指令,根据复制偏移量进行全量或部分同步,优化了数据传输效率... 目录Redis主DodMIK从复制实现原理实现原理Psync: 2.8版本后总结Redis主从复制实

锐捷和腾达哪个好? 两个品牌路由器对比分析

《锐捷和腾达哪个好?两个品牌路由器对比分析》在选择路由器时,Tenda和锐捷都是备受关注的品牌,各自有独特的产品特点和市场定位,选择哪个品牌的路由器更合适,实际上取决于你的具体需求和使用场景,我们从... 在选购路由器时,锐捷和腾达都是市场上备受关注的品牌,但它们的定位和特点却有所不同。锐捷更偏向企业级和专

如何安装HWE内核? Ubuntu安装hwe内核解决硬件太新的问题

《如何安装HWE内核?Ubuntu安装hwe内核解决硬件太新的问题》今天的主角就是hwe内核(hardwareenablementkernel),一般安装的Ubuntu都是初始内核,不能很好地支... 对于追求系统稳定性,又想充分利用最新硬件特性的 Ubuntu 用户来说,HWEXBQgUbdlna(Har