地址长度

在Linux下,unsigned long可以与地址的长度保持一致,即32位系统下unsigned long为32位,而64位系统下为64位长。

虚拟地址的分解

Linux分页机制-LMLPHP

如图所示,通过XXX_SHIFT方式,移位得到范围。

   1: /* PAGE_SHIFT determines the page size */

   2: #define PAGE_SHIFT    12

   3: #define PAGE_SIZE    (_AC(1,UL) << PAGE_SHIFT)  // 4KB = 4096

   4: #define PAGE_MASK    (~(PAGE_SIZE-1)) // 0x0FFF

对于没有PMD和PUD的情况,即只有两级页表的情况,在include/asm-generic/pgtable-nopud.h及pgtable_nopmd.h的情况:

   1: /*

   2:  * Having the pmd type consist of a pud gets the size right, and allows

   3:  * us to conceptually access the pud entry that this pmd is folded into

   4:  * without casting.

   5:  */

   6: typedef struct { pud_t pud; } pmd_t;

   7:  

   8: #define PMD_SHIFT    PUD_SHIFT

   9: #define PTRS_PER_PMD    1

  10: #define PMD_SIZE      (1UL << PMD_SHIFT)

  11: #define PMD_MASK      (~(PMD_SIZE-1))

   1: /*

   2:  * Having the pud type consist of a pgd gets the size right, and allows

   3:  * us to conceptually access the pgd entry that this pud is folded into

   4:  * without casting.

   5:  */

   6: typedef struct { pgd_t pgd; } pud_t;

   7:  

   8: #define PUD_SHIFT    PGDIR_SHIFT

   9: #define PTRS_PER_PUD    1

  10: #define PUD_SIZE      (1UL << PUD_SHIFT)

  11: #define PUD_MASK      (~(PUD_SIZE-1))

   1: /*

   2:  * traditional i386 two-level paging structure:

   3:  */

   4:  

   5: #define PGDIR_SHIFT    22

   6: #define PTRS_PER_PGD    1024

因此,对于x86情况来说,下图更为合适:

Linux分页机制-LMLPHP

Linux分页机制-LMLPHP

由上图可知,页目录中有1024个PDE(Page Directory Entry),其中每个entry代表着一张页表,对应着4MB的内存区域。而对于Linux来说,内核态总共需要1GB的内存空间,因此需要256个PDE来保存其对应的页表索引。

对于不同的进程来说,虽然768个PDE(3GB内存)是与该进程相关的,即对于不同的进程是不一样的,但是内核空间是各个进程都共享的,所以可以预见,每个进程的Page Directory中后256项都是相同的。

这样通过两层的页表,每个进程最多需要768个Page Table就足够了,从而节省了很多空间。

在PDE和PTE中,除了保存相应下一级内存页的高20位地址外,还有一些重要的属性位,比如P(Present),代表该页是否存在于物理内存中。

物理内存的管理

内核先要管理物理内存,因为物理内存在范围上地位(或重要性)是不平等的,位于DMA区域的物理内存更加珍贵些,因为DMA操作只能利用这部分的物理内存,如果被应用程序轻易地就给分配掉了,那么很可能导致DMA失败。

另外还要考虑NUMA的复杂情况,所以内核需要对物理内存的分配进行管理。

即引导CPU优先分配那些相对廉价的物理内存区域(HighMem),而且对于相对昂贵并且经常需要使用的内存区域(Normal Zone)使用简单而直接的线性映射页表项,

   1: (Linear Address = Physical Address + Constant)

从而使对该区域的访问更加方便。

在每个结点的每个区域上,都有对应的空闲的页表,以Buddy System进行管理,内核需要分配物理内存的时候,就要向Buddy System进行申请。

但是不管哪个区域(Zone)物理内存,都需要通过页表项的方式,提供给内核或者应用程序使用。虽然分页机制是可以进行开关的,但是在Linux操作系统工作的情景下,分页机制是打开的。

也就是说,内核或者应用程序中对内存地址的操作,都是要经过CPU的MMU单元进行页表项的转换,从线性地址转换到物理地址的。

如果使用的内存地址所在的内存页表项中的P(Present)标志为0的话,代表内存页不在物理内存中,会由CPU引发缺页异常,再由异常处理程序负责从页交换文件中调到相应的页,重新加载到物理内存中,然后再尝试重新执行引起缺页异常的那条指令。

而所有的这一切,对于访问内存的内核或者应用程序来说,都是透明的。

什么是TLB

刷新TLB的方法

因为TLB是保存着线性地址到物理地址的映射关系,它实际上是物理内存中页表部分的一个View,因此如果页表中的某一项发生了变化,而TLB没有跟着相应的变化的话,就会出现不一致(Inconsistent)的问题。

为了解决这个问题,可以通过刷新TLB(flush TLB)的方法来重置,方法如下:

   1: mov eax, cr3; 

   2: move cr3, eax;

因此,我们在Linux内核源码中看到下面的代码:

   1: static inline void __native_flush_tlb(void)

   2: {

   3:     native_write_cr3(native_read_cr3());

   4: }

Buddy System

Buddy System提供以下的API,以供内核分配物理内存:

   1: // 以下函数返回一个struct page的实例

   2:  

   3: alloc_pages(mask, order); //返回一个struct page实例, 代表起始页

   4:  

   5: alloc_page(mask); //返回一个struct page实例, 只分配一页

   6:  

   7: get_zeroed_page(mask); //返回一个置0的内存页

   8:  

   9:  

以及

   1: // 以下函数返回内存块的虚拟地址

   2:  

   3: __get_free_pages(mask, order);

   4: __get_free_page(mask);

   1: get_dma_pages(gfp_mask, order);//返回适用于DMA的页

以下是释放页的函数

   1: free_page(struct page*);

   2: free_pages(struct page*, order);

   3:  

   4: __free_page(addr);

   5: __free_pages(addr, order);

启动过程的对分页的支持

   1: setup_arch() -> paging_init()

BootMem

在操作系统启动过程中时,也需要使用物理内存,但是这时Buddy System还没有Ready,所以Linux提供了一种简单的物理内存管理方案。

通过比特位的位图来管理物理内存的使用情况,采用First-Best策略来搜索合适的物理内存块。

保证最快找到可以大小的连续物理内存,又不会覆盖掉正在使用的物理内存。

Slab分配器

用户态的程序可以使用C标准库中提供的malloc接口分配小块的内存,但是内核也需要分配小块的内存,却无法使用标准库提供的服务。所以内核提供了slab分配器来分配小块的内存。

slab分配器的好处:

  • 1. 由于内核趋向于有规律地分配并释放相同大小的内存块,比如sizeof(fs_struct)大小。所以slab分配器提供了缓存的功效,即对刚刚释放的小块内存,并不立即交给Buddy System回收,而是先保留下来,当内核马上又分配相同大小的内存块时,就可以很快地重用这块内存。

  • 2. 如果直接调用Buddy System进行小块内存的分配,就会增加内存调度的块大小,加快高速缓存行的刷新,从而导致不重要的数据驻留在高速缓存行中,重要的数据却被切换到内存中。
  • 3. 直接调用Buddy System进行小块内存的分配,会使数据总是出现在2的整数幂次附件,从而使对应的高速缓存行,不停地被刷新,导致该高速缓存行被过度使用。
05-16 12:57