Files
912-notes/thu_os/lab5_report.md
2019-09-15 10:03:32 +08:00

31 KiB
Raw Blame History

Lab5 Report

实验目的

  • 了解第一个用户进程创建过程
  • 了解系统调用框架的实现机制
  • 了解ucore如何实现系统调用sys_fork/sys_exec/sys_exit/sys_wait来进行进程管理

实验内容

实验4完成了内核线程但到目前为止所有的运行都在内核态执行。实验5将创建用户进程让用户进程在用户态执行且在需要ucore支持时,可通过系统调用来让ucore提供服务。为此需要构造出第一个用户进程,并通过系统调用sys_fork/sys_exec/sys_exit/sys_wait来支持运行不同的应用程序完成对用户进程的执行过程的基本管理。相关原理介绍可看附录B。

练习

对实验报告的要求:

  • 基于markdown格式来完成以文本方式为主
  • 填写各个基本练习中要求完成的报告内容
  • 完成实验后,请分析ucore lab中提供的参考答案,并请在实验报告中说明你的实现与参考答案的区别
  • 列出你认为本实验中重要的知识点以及与对应的OS原理中的知识点并简要说明你对二者的含义关系差异等方面的理解也可能出现实验中的知识点没有对应的原理知识点
  • 列出你认为OS原理中很重要但在实验中没有对应上的知识点

实验执行流程概述

首先简单叙述一下lab5整个实验的执行流程以及它与lab4之间的区别。

一开始的执行流程都和lab4一样同样的初始化工作proc_init中创建了第零个内核线程idleproc,以及在idleproc线程中创建了第一个内核线程init_main。最后,idleproc通过调用cpu_idle函数将CPU的控制权切换到init_main

切换到init_mainlab4中只是简单地打印了一些内容然后就结束退出了。但是在lab5中init_main的工作就没有这么简单了。它又调用了kernel_thread创建了第二个内核线程user_main,并且通过调用调度函数将控制权切换到user_main

user_main中,进行的主要工作是将这个内核线程打造成一个用户进程。为此,它调用了do_execve函数,其中首先将当前进程的内存资源清空,然后在load_icode函数中将要执行的用户程序加载到了当前进程的内存空间中,并且进行了其他一些资源分配工作。最后通过中断帧tf的设置实现了CPU从内核空间向用户空间的切换。

下面将就上面的这些步骤,给出具体的分析。

用户进程的加载与执行

user_main内核线程中,首先是通过宏调用了kernel_execve函数,其函数体如下:

static int
kernel_execve(const char *name, unsigned char *binary, size_t size) {
    int ret, len = strlen(name);
    asm volatile (
        "int %1;"
        : "=a" (ret)
        : "i" (T_SYSCALL), "0" (SYS_exec), "d" (name), "c" (len), "b" (binary), "D" (size)
        : "memory");
    return ret;
}

在该函数中,是通过系统调用INT 80调用了do_execve函数,关于系统调用的实现将在后面具体分析。do_execve函数的主要功能,就是将一个用户程序的elf格式文件加载到当前进程的内存空间中,并且让该用户程序在用户空间运行起来,整个过程非常类似bootloader加载ucore内核到内存中的情形。实际上这也是原理课中讲过的linux系统中,新建一个用户进程的常见方法,即首先调用fork系统调用,在fork系统调用中,会新建一个进程,并且把当前进程的内存空间,代码,状态等信息拷贝到新建的进程中,这样父进程和子进程几乎一模一样。随后,用户为了让新进程执行指定的代码,需要调用exec系统调用,来将指定的程序加载到新创建的进程中。

do_execve为了实现其功能,需要进行的操作?

do_execve为了将指定的程序加载到刚刚fork产生的新进程中,首先肯定是需要释放现有的内存空间,因为现有的内存空间都是复制当前进程的父进程的,对于该进程后续的执行没有任何作用,因此首先需要将这部分不需要的资源归还给操作系统,这部分操作对应了do_execve函数的前半部分,具体的代码如下:

int
do_execve(const char *name, size_t len, unsigned char *binary, size_t size) {
......
if (mm != NULL) {
        lcr3(boot_cr3);
        if (mm_count_dec(mm) == 0) {
            exit_mmap(mm);
            put_pgdir(mm);
            mm_destroy(mm);
        }
        current->mm = NULL;
    }
    int ret;
    if ((ret = load_icode(binary, size)) != 0) {
        goto execve_exit;
    }
......

其中的exit_mmapput_pgdirmm_destroy依次对应了释放进程的用户地址空间,释放进程的页表占用的空间,释放进程的mm_struct占用的空间。需要注意的是这里还有一个mm_count_dec函数,是将mm_struct.mm_count递减,该字段用来表示使用该mm_struct的进程数量,因为多个进程可以共用同一个页表以及虚拟地址空间。

清空了内存空间以后,就可以要求操作系统分配新的内存空间,以将当前进程要执行的程序加载到新的内存空间中。这部分的操作类似于bootloader中将内核加载到内存中的过程,主要原理就是利用elf文件的头部,将程序的各个段依次读出,并且拷贝到内存空间中,对应了load_icode大部分的操作,因为太长,并且涉及到比较底层的知识,这里就不贴代码了,可以自己去查看一下。

在将要执行的用户代码加载到它的用户内存空间后,就可以让它运行起来了。由于是用户进程,在此之前还需要为它分配它的用户栈,代码如下:

//(4) build user stack memory
vm_flags = VM_READ | VM_WRITE | VM_STACK;
if ((ret = mm_map(mm, USTACKTOP - USTACKSIZE, USTACKSIZE, vm_flags, NULL)) != 0) {
    goto bad_cleanup_mmap;
}
assert(pgdir_alloc_page(mm->pgdir, USTACKTOP-PGSIZE , PTE_USER) != NULL);
assert(pgdir_alloc_page(mm->pgdir, USTACKTOP-2*PGSIZE , PTE_USER) != NULL);
assert(pgdir_alloc_page(mm->pgdir, USTACKTOP-3*PGSIZE , PTE_USER) != NULL);
assert(pgdir_alloc_page(mm->pgdir, USTACKTOP-4*PGSIZE , PTE_USER) != NULL);

可以看到,这里的用户栈的栈底是USTACKTOP,它实际上就是用户虚拟内存空间的顶部USERTOP,用户栈的大小是USTACKSZIE为256个页面大小并且预先为该进程分配了4个物理页帧作为它的用户栈。之前我还以为是所有用户进程一起使用这256页大小的用户栈空间后来才想明白每个用户进程的栈都是从USTACKTOP起始大小为256个页面大小。因为这里使用的都是虚拟地址啊并且引入了页面置换机制所以尽管不同的用户进程的用户栈拥有相同的虚拟地址它们却会被映射到不同的物理地址上。这样一来我就明白为什么会有栈溢出这么一回事儿了因为物理内存空间是有限的多道程序系统又会同时运行许多应用程序如果每个应用程序都占用过大的栈空间CPU的并行性或者效率就会降低所以需要为用户栈的大小设置一个上限一旦超过了这个上限比如建立了一个大数组当然就会出现stack overflow了。

此后,就需要正确设置中断帧tf,利用中断返回机制让用户程序进入运行了。

加载应用程序并执行(需要编码)

do_execv函数调用load_icode(位于kern/process/proc.c中)来加载并解析一个处于内存中的ELF执行文件格式的应用程序,建立相应的用户内存空间来放置应用程序的代码段、数据段等,且要设置好proc_struct结构中的成员变量trapframe中的内容,确保在执行此进程后,能够从应用程序设定的起始执行地址开始执行。需设置正确的trapframe内容。

请在实验报告中简要说明你的设计实现过程。

请在实验报告中描述当创建一个用户态进程并加载了应用程序后CPU是如何让这个应用程序最终在用户态执行起来的。即这个用户态进程被ucore选择占用CPU执行RUNNING态)到具体执行应用程序第一条指令的整个经过

中断帧的设置

不知道还有没有人记得,一开始我就描述了user_main内核线程是通过系统调用INT 80,来调用do_execve函数的,它为什么非要通过系统调用呢?要知道这可是一个内核线程啊,它可以直接调用do_execve的。因此,它通过系统调用的目的,其实就是为了最后这一步内核线程向用户进程的切换。

user_main是通过系统调用来调用do_execve函数的,因此它当前的中断帧其实就是在中断机制中,由硬件和操作系统所设置的,设置这个中断帧的目的是在中断返回时,可以正确返回到应用进程被中断的那一条指令。所以,我们只需要修改这里的中断帧,就可以在iret时,不要回到user_main函数中,而是跳转到前面我们已经加载到内存中的用户程序中,这样就可以实现用户应用程序被操作系统执行。

这样,我们这里的主要工作,就是要正确设置中断帧,让它表示用户程序的第一条指令。其中包括:

  • 段寄存器的设置:由于是用户进程,应该正确设置段选择子中的CPL了,简单说来就是让这里的CS = USER_CSDS = SS = ES = USER_DS
  • ip的设置:cs:ip应该指向用户进程的第一条指令,即ip = elf->e_entry
  • esp的设置:只有在涉及到特权级切换时,才会由硬件压栈的用户栈栈顶指针esp,此时应该指向刚设置的用户栈的栈顶,即esp = USTACKTOP
  • 状态字flags的设置:由于刚开始执行,也没有什么保存的状态,就设置为可以被中断FL_IF就可以了。

完成这样的设置后,只需要执行到中断返回时的iret,就可以实现用户应用程序的执行了。具体的代码如下:

	//(6) setup trapframe for user environment
	struct trapframe *tf = current->tf;
	memset(tf, 0, sizeof(struct trapframe));
	tf->tf_cs = USER_CS;
	tf->tf_ds = USER_DS;
	tf->tf_es = USER_DS;
	tf->tf_ss = USER_DS;
	tf->tf_esp = USTACKTOP;
	tf->tf_eip = elf->e_entry;
	tf->tf_eflags = FL_IF;
	ret = 0;
out:
	return ret;

至此lab5的基本执行流程就已经分析完了后面就其中的一些函数与功能的具体实现来进行分析。

练习2: 父进程复制自己的内存空间给子进程(需要编码)

创建子进程的函数do_fork在执行中将拷贝当前进程(即父进程)的用户内存地址空间中的合法内容到新进程中(子进程),完成内存资源的复制。具体是通过copy_range函数(位于kern/mm/pmm.c中)实现的,请补充copy_range的实现,确保能够正确执行。

请在实验报告中简要说明如何设计实现”Copy on Write 机制“,给出概要设计,鼓励给出详细设计。

Copy-on-write简称COW的基本概念是指如果有多个使用者对一个资源A比如内存块进行读操作则每个使用者只需获得一个指向同一个资源A的指针就可以该资源了。若某使用者需要对这个资源A进行写操作系统会对该资源进行拷贝操作从而使得该“写操作”使用者获得一个该资源A的“私有”拷贝—资源B可对资源B进行写操作。该“写操作”使用者对资源B的改变对于其他的使用者而言是不可见的因为其他使用者看到的还是资源A。

用户内存空间的复制

do_fork中,需要完成将父进程的用户内存空间复制到子进程中,它通过调用mm_copy来完成这个工作。在mm_copy中,存在两个模式,一种是父子进程共享(share)内存空间,在这种情况下,只需要将父进程的mm赋值给子进程的mm就可以了;另一种是拷贝内存空间(duplicate),也就是我们这里的情况,是通过调用dup_mmap函数来实现的。

为了实现内存空间的拷贝,需要做哪些工作呢?内存空间的拷贝包括虚拟内存空间拷贝和物理内存空间拷贝。实际上,完全可以不用拷贝虚拟内存空间,但是既然do_fork的语义是fork,似乎还是保持父子进程几乎完全相同比较好;此外,反正虚拟内存空间都是每个进程所独有的,与其他进程没有任何关系,其实怎么设置都不是很有关系,既然如此不如直接拷贝还更加方便。

所以第一步的操作就是虚拟内存空间的拷贝。为此,只需要将父进程的mm中的各个vma_struct,依次拷贝到子进程新建的mm中,这部分内容在dup_mmap函数中的前半部分实现。具体的代码如下:

int
dup_mmap(struct mm_struct *to, struct mm_struct *from) {
    assert(to != NULL && from != NULL);
    list_entry_t *list = &(from->mmap_list), *le = list;
    while ((le = list_prev(le)) != list) {
        struct vma_struct *vma, *nvma;
        vma = le2vma(le, list_link);
        nvma = vma_create(vma->vm_start, vma->vm_end, vma->vm_flags);
        if (nvma == NULL) {
            return -E_NO_MEM;
        }

        insert_vma_struct(to, nvma);

        bool share = 0;
        if (copy_range(to->pgdir, from->pgdir, vma->vm_start, vma->vm_end, share) != 0) {
            return -E_NO_MEM;
        }
    }
    return 0;
}

可以看到,在dup_mmap中,就是遍历父进程mm中的各个vma_struct,将它们逐个拷贝给子进程。随后调用copy_range函数来实现物理内存空间的拷贝。

为了实现物理内存空间的拷贝,只需要使用get_pte函数遍历父进程的每一个物理页帧,每有一个这样的物理页帧,就为子进程分配一个新的内存空间,并且将该父进程页帧中的内容通过memcpy拷贝到子进程新分配的空间中。最后,在将子进程新分配的页帧的起始地址填入到子进程的页表中,这样就完成了一个物理页帧的拷贝。具体的代码如下:

int
copy_range(pde_t *to, pde_t *from, uintptr_t start, uintptr_t end, bool share) {
    assert(start % PGSIZE == 0 && end % PGSIZE == 0);
    assert(USER_ACCESS(start, end));
    // copy content by page unit.
    do {
        //call get_pte to find process A's pte according to the addr start
        pte_t *ptep = get_pte(from, start, 0), *nptep;
        if (ptep == NULL) {
            start = ROUNDDOWN(start + PTSIZE, PTSIZE);
            continue ;
        }
        //call get_pte to find process B's pte according to the addr start. If pte is NULL, just alloc a PT
        if (*ptep & PTE_P) {
            if ((nptep = get_pte(to, start, 1)) == NULL) {
                return -E_NO_MEM;
            }
        uint32_t perm = (*ptep & PTE_USER);
        //get page from ptep
        struct Page *page = pte2page(*ptep);
        // alloc a page for process B
        struct Page *npage=alloc_page();
        assert(page!=NULL);
        assert(npage!=NULL);
        int ret=0;
        void* src_kvaddr = page2kva(page);
        void* dst_kvaddr = page2kva(npage);
        memcpy(dst_kvaddr, src_kvaddr, PGSIZE);
        page_insert(to, npage, start, perm);
        assert(ret == 0);
        }
        start += PGSIZE;
    } while (start != 0 && start < end);
    return 0;
}

COW机制实现

简单的版本的话,就是在do_fork函数中,只是让子进程拷贝父进程的地址空间。一旦父进程或者子进程试图写它们共享的空间,可以通过Page Fault机制,为该页新分配一个空间,并且修改对应进程的页表。这样,被修改的页就只有修改页的那个进程可以看到,对于其他进程修改都是不可见的。当然,要是具体实现的话,需要考虑许多问题,情况比较复杂,我以后再好好专研吧。

练习3: 阅读分析源代码,理解进程执行fork/exec/wait/exit的实现,以及系统调用的实现(不需要编码)

请在实验报告中简要说明你对fork/exec/wait/exit函数的分析。并回答如下问题:

  • 请分析fork/exec/wait/exit在实现中是如何影响进程的执行状态的?
  • 请给出ucore中一个用户态进程的执行状态生命周期图包执行状态执行状态之间的变换关系以及产生变换的事件或函数调用字符方式画即可

系统调用的实现

下面就以exit为例,来说明系统调用的实现。其他几个系统调用也是根据同样的方法实现的。

我们可以首先找到user/libs/ulib.c中的exit函数的实现:

void
exit(int error_code) {
    sys_exit(error_code);
    cprintf("BUG: exit failed.\n");
    while (1);
}

可以看到,该函数是通过调用另一个用户态函数sys_exit函数来完成它的功能的。可以在user/libs/syscall.c中找到该函数:

static inline int
syscall(int num, ...) {
    va_list ap;
    va_start(ap, num);
    uint32_t a[MAX_ARGS];
    int i, ret;
    for (i = 0; i < MAX_ARGS; i ++) {
        a[i] = va_arg(ap, uint32_t);
    }
    va_end(ap);

    asm volatile (
        "int %1;"
        : "=a" (ret)
        : "i" (T_SYSCALL),
          "a" (num),
          "d" (a[0]),
          "c" (a[1]),
          "b" (a[2]),
          "D" (a[3]),
          "S" (a[4])
        : "cc", "memory");
    return ret;
}

int
sys_exit(int error_code) {
    return syscall(SYS_exit, error_code);
}

看到这里应该就很明了了,原来在sys_exit函数中,是通过系统调用INT 80,通过中断机制来请求操作系统的服务。为了实现系统调用的中断机制,需要对中段描述符表(idt)做一些修改,使得系统调用0x80所对应的门描述符具有用户态访问的权限。此外,系统调用的门描述符类型(type)应该是陷阱门(trap gate)。修改后的idt_init函数如下:

/* idt_init - initialize IDT to each of the entry points in kern/trap/vectors.S */
void
idt_init(void) {
	extern uintptr_t __vectors[];
	
	uint32_t ix;
	for(ix = 0; ix < 256; ++ix)
		SETGATE(idt[ix], 0, KERNEL_CS, __vectors[ix], DPL_KERNEL);
	
	lidt(&idt_pd);
	SETGATE(idt[T_SYSCALL], 1, KERNEL_CS, __vectors[T_SYSCALL], DPL_USER);
}

完成中断描述符表的设置后,就可以通过硬件机制找到系统调用的服务程序的入口地址,从而根据系统调用的中断号#definie T_SYSCALL 0x80,在trap_dispatch函数中找到实际上的处理函数这里的中断机制在lab1中就已经叙述过了。

static void
trap_dispatch(struct trapframe *tf){
	......
	switch(tf->tf_trapno){
	......
	case T_SYSCALL:
		syscall();
		break;
	......
	}
}

从而跳转到实际上的系统调用处理函数syscall中。那么这里产生了一个问题,所有的系统调用都是通过同一个中断号T_SYSCALL来进入系统调用处理函数的,这样又如何识别不同的系统调用呢?

事实上,在前面的代码就已经有所展示,系统调用所需要的各个参数,都已经保存在各个寄存器中了。因此,在syscall函数中,只要读取这几个特定的寄存器,就可以识别系统调用的类型,从而将参数传递给某个特定的系统调用处理函数。以这里的exit系统调用为例,通过syscall函数,

static int
sys_exit(uint32_t arg[]) {
    int error_code = (int)arg[0];
    return do_exit(error_code);
}

static int (*syscalls[])(uint32_t arg[]) = {
    [SYS_exit]              sys_exit,
    [SYS_fork]              sys_fork,
    [SYS_wait]              sys_wait,
    [SYS_exec]              sys_exec,
    [SYS_yield]             sys_yield,
    [SYS_kill]              sys_kill,
    [SYS_getpid]            sys_getpid,
    [SYS_putc]              sys_putc,
    [SYS_pgdir]             sys_pgdir,
};

#define NUM_SYSCALLS        ((sizeof(syscalls)) / (sizeof(syscalls[0])))

void
syscall(void) {
    struct trapframe *tf = current->tf;
    uint32_t arg[5];
    int num = tf->tf_regs.reg_eax;
    if (num >= 0 && num < NUM_SYSCALLS) {
        if (syscalls[num] != NULL) {
            arg[0] = tf->tf_regs.reg_edx;
            arg[1] = tf->tf_regs.reg_ecx;
            arg[2] = tf->tf_regs.reg_ebx;
            arg[3] = tf->tf_regs.reg_edi;
            arg[4] = tf->tf_regs.reg_esi;
            tf->tf_regs.reg_eax = syscalls[num](arg);
            return ;
        }
    }
    print_trapframe(tf);
    panic("undefined syscall %d, pid = %d, name = %s.\n",
            num, current->pid, current->name);
}

它将实际上跳转到sys_exit函数中,随后调用kern/process/proc.c中实现的do_exit函数来完成exit系统调用的处理。这里我们再看一下do_exit是如何真正地实现进程的退出的吧。

exit的实现

在原理课中讲过,当一个进程执行完毕需要退出时,将执行exit系统调用,从而在其中将它所占用的资源几乎全部归还给操作系统。为什么是几乎呢?因为归还资源的操作是它自己进行的,只要这个进程还存在,就至少还有进程控制块PCB的内存资源没有归还给操作系统。

随后,该进程还不能完全退出,而是进入ZOMBIE状态,即僵尸态。这是因为,它在完全退出之前,还需要唤醒父进程,并且等待它的父进程对它的处理,只有父进程完成对它处理,或者父进程不存在,比如已经退出了,该进程才能退出。这也是这里的do_exit需要一个error_code参数的原因,这样父进程就可以根据这个错误码的不同值,来完成不同的处理结果。在父进程完成对它的处理前,该进程需要调用调度函数schedule让出CPU的控制权。

原理课上就讲到这么多但是在ucore里面还做了进一步操作。因为当前要退出的进程有可能还有子进程ucore还完成了这些子进程的移交从而避免它们成为没有父进程的孩子。具体的操作就是将这些子进程【过继】给了第一个内核线程其中主要就涉及到几个指针proc_struct.parent/cptr/optr/yptr的修改。需要指出的是,这里的cptr在进程具有多个孩子的情形下,总是指向最小的一个孩子。具体的代码如下:

// do_exit - called by sys_exit
//   1. call exit_mmap & put_pgdir & mm_destroy to free the almost all memory space of process
//   2. set process' state as PROC_ZOMBIE, then call wakeup_proc(parent) to ask parent reclaim itself.
//   3. call scheduler to switch to other process
int
do_exit(int error_code) {
    if (current == idleproc) {
        panic("idleproc exit.\n");
    }
    if (current == initproc) {
        panic("initproc exit.\n");
    }
    
    struct mm_struct *mm = current->mm;
    if (mm != NULL) {
        lcr3(boot_cr3);
        if (mm_count_dec(mm) == 0) {
            exit_mmap(mm);
            put_pgdir(mm);
            mm_destroy(mm);
        }
        current->mm = NULL;
    }
    current->state = PROC_ZOMBIE;
    current->exit_code = error_code;
    
    bool intr_flag;
    struct proc_struct *proc;
    local_intr_save(intr_flag);
    {
        proc = current->parent;
        if (proc->wait_state == WT_CHILD) {
            wakeup_proc(proc);
        }
        while (current->cptr != NULL) {
            proc = current->cptr;
            current->cptr = proc->optr;
    
            proc->yptr = NULL;
            if ((proc->optr = initproc->cptr) != NULL) {
                initproc->cptr->yptr = proc;
            }
            proc->parent = initproc;
            initproc->cptr = proc;
            if (proc->state == PROC_ZOMBIE) {
                if (initproc->wait_state == WT_CHILD) {
                    wakeup_proc(initproc);
                }
            }
        }
    }
    local_intr_restore(intr_flag);
    
    schedule();
    panic("do_exit will not return!! %d.\n", current->pid);
}

wait的实现

在原理课中讲到,当父进程需要等待某一个子进程退出,该子进程退出之后,父进程才能继续执行。在这种情况下,就应该使用wait系统调用。wait系统调用的实现和exit一样,都是一步步通过中断机制,分发到系统调用总控函数syscall,然后再调用实质性的处理函数do_wait,它也在kern/process/proc.s中实现。

do_wait中,进行的主要工作就是查询当前进程是否有某个子进程进入了ZOMBIE态,如果当前就已经有ZOMBIE态的子进程,则立即对它进行处理,并且返回退出。如果还没有ZOMBIE态的子进程,当前进程就会被挂起,进入等待态(SLEEPING),并且不能自己苏醒,必须某个子进程退出才会唤醒该进程。

对子进程的处理,主要是释放它占用的内存资源,即它的进程控制块PCB,以及内核堆栈。do_wait的具体实现如下:

// do_wait - wait one OR any children with PROC_ZOMBIE state, and free memory space of kernel stack
//         - proc struct of this child.
// NOTE: only after do_wait function, all resources of the child process are free.
int
do_wait(int pid, int *code_store) {
    struct mm_struct *mm = current->mm;
    if (code_store != NULL) {
        if (!user_mem_check(mm, (uintptr_t)code_store, sizeof(int), 1)) {
            return -E_INVAL;
        }
    }

    struct proc_struct *proc;
    bool intr_flag, haskid;
repeat:
    haskid = 0;
    if (pid != 0) {
        proc = find_proc(pid);
        if (proc != NULL && proc->parent == current) {
            haskid = 1;
            if (proc->state == PROC_ZOMBIE) {
                goto found;
            }
        }
    }
    else {
        proc = current->cptr;
        for (; proc != NULL; proc = proc->optr) {
            haskid = 1;
            if (proc->state == PROC_ZOMBIE) {
                goto found;
            }
        }
    }
    if (haskid) {
        current->state = PROC_SLEEPING;
        current->wait_state = WT_CHILD;
        schedule();
        if (current->flags & PF_EXITING) {
            do_exit(-E_KILLED);
        }
        goto repeat;
    }
    return -E_BAD_PROC;

found:
    if (proc == idleproc || proc == initproc) {
        panic("wait idleproc or initproc.\n");
    }
    if (code_store != NULL) {
        *code_store = proc->exit_code;
    }
    local_intr_save(intr_flag);
    {
        unhash_proc(proc);
        remove_links(proc);
    }
    local_intr_restore(intr_flag);
    put_kstack(proc);
    kfree(proc);
    return 0;
}

要注意do_wait要传入一个pid参数,当pid不等于零时,表示等待具有该pid的某个特定进程;当pid等于零时,任何子进程的退出都会受到处理。

在前面已经分析过do_fork以及do_execve的实现了,这里不再赘述。关于它们是如何影响进程的状态的,可以看看我丑陋的字符画。

                               child exit
                       |--------------------SLEEPING
                       |                       ^
                       |                       | wait
          fork         V        schedule       |
UNINIT  -------->   RUNNABLE  <---------->  RUNNING
          exec                                 |  
                                               | exit
                                               V
                                             ZOMBIE

fork系统调用的实现

lab4_report中已经阐述了do_fork函数的实现,但是这里还有一个问题,在原理课上老师讲到,通过fork系统调用创建的子进程和父进程几乎完全相同,在被调度后子进程会从父进程被中断的地方开始执行,这是怎么实现的呢?此外,为了区分开父进程和子进程,可以通过fork系统调用的返回值,即父进程的返回值为子进程的pid子进程的返回值为0如下面的代码

main(){
    .......
    int pid = fork();
    if(pid == 0){//child process goes here
        exec_status = exec("calc", arg0, arg1, ...);
        ......
    }else{//parent process goes here
        ......
    }
}

又是如何实现父进程的子进程的返回值不一样的呢?接下来我们将一步一步分析fork系统调用实现的步骤。

如前面所说的那样,用户进程调用fork()时,会转到用户态系统调用库user/libs/syscall.c(h),在其中会由syscall函数调用INT 80来请求操作系统的fork服务之后CPU的控制权就转交给了中断服务程序这里涉及到当前进程父进程中断帧的保存最终实际的fork操作由kern/process/proc.c::do_fork来完成,kern/syscall/syscall.c::sys_fork的实现如下:

static int
sys_fork(uint32_t arg[]) {
    struct trapframe *tf = current->tf;
    uintptr_t stack = tf->tf_esp;
    return do_fork(0, stack, tf);
}

可以看到,调用do_fork函数的参数分别是当前进程的用户堆栈tf->tf_esp以及中断帧。在lab4中已经实现了这个do_fork函数,在其中会进行一系列的资源拷贝工作。在copy_thread函数中,会把父进程的tf拷贝到子进程的tf当中。但是,子进程的上下文信息context仍然是设置到forkret

到目前为止,我们应该可以看出子进程是如何在父进程中断的地方继续执行的了。子进程被调度后,通过forkret,转到中断返回函数,在其中通过iret将保存了父进程中断帧的tf加载到寄存器当中,这样就相当于恢复了父进程的中断现场。

但是还有一点,它们的返回值是如何做到不同的呢?事实上,注意到在user/libs/syscall中,有

asm volatile (
    "int %1;"
    : "=a" (ret)
    : "i" (T_SYSCALL),
      "a" (num),
      "d" (a[0]),
      "c" (a[1]),
      "b" (a[2]),
      "D" (a[3]),
      "S" (a[4])
    : "cc", "memory");

可以看到,INT 80的返回值是保存在eax寄存器当中的,对于父进程,这个返回值就是do_fork的返回值,即子进程的pid。而对于子进程而言,注意到在copy_thread当中,是将中断帧的tf_regs.reg_eax设置为零的:

static void
copy_thread(struct proc_struct *proc, uintptr_t esp, struct trapframe *tf) {
    proc->tf = (struct trapframe *)(proc->kstack + KSTACKSIZE) - 1;
    *(proc->tf) = *tf;
    proc->tf->tf_regs.reg_eax = 0;
    proc->tf->tf_esp = esp;
    proc->tf->tf_eflags |= FL_IF;

    proc->context.eip = (uintptr_t)forkret;
    proc->context.esp = (uintptr_t)(proc->tf);
}

这样在中断返回时,这个零就会被加载到eax寄存器中,从而子进程的fork返回值就是零了。

进程的切换与退出

之前我一直很迷惑这里ucore的进程怎么实现切换的最后又是怎么退出的一开始感觉非常神奇后来发现原来是最朴素的策略。原来这里根本就没有什么所谓的时间片轮转算法没有抢占机制一切的切换都是进程自己主动通过系统调用执行的。

例如一个进程切换到另一个进程,只有下面几种可能性:

  • 主动调用schedule,实现进程的切换。
  • 通过do_wait函数,在没有子进程退出时,会调用schedule来完成切换。
  • 通过do_exit函数,进入ZOMBIE状态后,会调用schedule来完成切换。

此外,进程的退出也是一样,都是自己调用了exit系统调用来退出的,这和我们正常的系统不一样,所以一开始不能理解。我们实际用的系统,对于我平时写的沙雕程序,应该是系统或者编译器自动在程序结束时添加了系统调用exit,来退出的。