Linux Memory Management Notes

vmlinz posted @ Tue, 03 May 2011 15:15:32 +0800 in Linux with tags linux memory driver , 18796 readers

Linux 内存基础

地址类型

linux内核中有许多种不同的地址类型

  • 用户虚拟地址 用户空间看到的常规地址,通过页表可以将虚拟地址和物理地址映射起来
  • 物理地址 用在cpu和内存之间的地址叫做物理地址
  • 总线地址 外围总线和内存之间的地址叫做总线地址。通常他们和物理地址相同
  • 内核逻辑地址 内核的常规地址空间,必定有对应的物理内存与之映射。kmalloc返回的就是内核逻辑地址
  • 内核虚拟地址 内核虚拟地址和内核逻辑地址的相同之处在于,他们都将内核空间的地址映射到物理内存上。但是内核虚拟地址不一定是线性的和一对一的。vmalloc返回的是虚拟地址。

虚拟内存

虚拟内存是用来描述一种不直接映射计算机物理内存的方法。分页是在虚拟内存与物理内存转换时用到的。请参阅intel手册了解更多分页系统的知识。

低于896MB的每页内存都被直接映射到内核空间。高于896的内存,又称高端内存,不会一直映射到内存空间,而是使用kmap和kmap_atomic来临时映射。剩余的126MB内存的一部分用于映射高端内存。

内核内存从PAGE_OFFSET开始,在x86架构中它的值是0xc0000000(3G),高于PAGE_OFFSET的虚拟内存用于内核空间,低于的用于用户空间。

x86系统内存子系统初始化

  • 首先设置页表(可能有多级)
  • 完成内核内存映射(内核中的物理内存和逻辑地址只有一个固定的OFFSET,PAGE_OFFSET)

用户空间的内存管理

  • struct mm_struct 进程内存空间的最高级别管理结构
  • struct vm_area_struct 内存区域,组成进程内存
  • pgd_t *pgd 进程页表指针

阅读ULK3学习更多内存管理的细节

物理地址和页

物理地址被分成离散的单元,成为页。目前大多数系统的页面大小都为4k。实际使用的时候应该使用指定体系架构下的页面大小PAGE_SIZE。PAGE_SHIFT可以将地址转换为页帧。

高端和低端内存

系统中逻辑地址和虚拟地址不一致的情况产生了高端内存和低端内存的说法。

通常linux x86内核将4GB的虚拟地址分割为用户空间和内核空间;在二者的上下文中使用相同的映射。一个典型的分配是将低地址3GB分给用户空间,将剩下的高地址1GB分给内核空间。这样由于内核只能直接操作已经映射了物理内存的虚拟地址,所以内核在大内存系统中就不能直接访问所有的物理内存。这样就产生了高端内存和低端内存的说法。

高端内存

高端内存是没有直接映射到物理内存的内核逻辑地址

应对高端内存

  • 高端物理内存在需要使用时会被临时映射到内核虚拟内存上
  • 内核经常访问的数据被放在低端内存上
  • 内核偶尔访问的数据最好放在高端内存上
  • 不同内存区域的内存分配和换页应该有一个平衡

临时映射

  • kmap和kunmap,产生一个永久的内存映射,但他们有一个全局锁,不适合SMP系统
  • kmap_atomic和kunmap_atomic,常用于SMP系统,产生的映射地址是每个CPU私有的

在访问特定的高端内存之前,内核必须建立明确的虚拟映射,使该页可以在内核地址空间被访问。

总的来说高端内存就是没有逻辑地址的内存,反之就是低端内存。

内存映射和结构

由于高端内存中无法使用逻辑地址,所以内核中处理内存的函数趋向于使用指向page结构的指针。该结构保存了内核需要知道的所有物理内存的信息。系统中的每个物理页都和一个page结构对应。

page结构和虚拟地址之间转换的函数和宏:

  • struct page *virt_to_page(void *kaddr);
  • struct page *pfn_to_page(int pfn);
  • void *page_addr(struct page *page);

分页

In a virtual memory system all of these addresses are virtual addresses and not physical addresses. These virtual addresses are converted into physical addresses by the processor based on information held in a set of tables maintained by the operating system.在虚拟内存系统中,所有的地址都是虚拟地址而不是物理地址。这些虚拟地址可以通过操作系统维护的一系列的表转换为物理地址。

To make this translation easier, virtual and physical memory are divided into handy sized chunks called pages. These pages are all the same size, they need not be but if they were not, the system would be very hard to administer. Linux on Alpha AXP systems uses 8 Kbyte pages and on Intel x86 systems it uses 4 Kbyte pages. Each of these pages is given a unique number; the page frame number (PFN).为了使这个转换更加简单,虚拟地址和物理地址都被分成叫做内存页面小的内存块。所有的页面都是同样大小。每页内存都有一个唯一的编号,这种编号叫做页帧号。

In this paged model, a virtual address is composed of two parts; an offset and a virtual page frame number. If the page size is 4 Kbytes, bits 11:0 of the virtual address contain the offset and bits 12 and above are the virtual page frame number. Each time the processor encounters a virtual address it must extract the offset and the virtual page frame number. The processor must translate the virtual page frame number into a physical one and then access the location at the correct offset into that physical page. To do this the processor uses page tables.在这种分页模式下,虚拟地址由两部分组成;页帧内的偏移和虚拟页帧号。如果页面大小是4KB,11:0这些位就是页帧内偏移,12位以上的叫做页帧号。每当处理器遇到虚拟内存地址,它就会把地址中的页内偏移和页帧号解出来。处理器通过页表把虚拟帧号转换成物理帧号,然后在加上页内偏移就可以找到对应的物理地址了。

页表

现代系统中,处理器需要使用某种机制将虚拟地址转换成物理地址。这种机制被成为页表;它基本上是一个多层树形结构,结构化的数组中包含了虚拟地址到物理地址的映射和相关的标志位。

demand paging

Linux uses demand paging to load executable images into a processes virtual memory. Whenever a command is executed, the file containing it is opened and its contents are mapped into the processes virtual memory. This is done by modifying the data structures describing this processes memory map and is known as memory mapping. However, only the first part of the image is actually brought into physical memory. The rest of the image is left on disk. As the image executes, it generates page faults and Linux uses the processes memory map in order to determine which parts of the image to bring into memory for execution.Linux使用按需分页来将可执行镜像载入到进程的虚拟内存空间。每当命令执行时,命令的文件被打开,内容被映射到进程的虚拟内存上。这里是通过修改进程的内存映射相关结构体来实现的,这个过程也叫做内存映射。不过,只有镜像的开头部分被真正的放进了物理内存。余下部分还在磁盘上。镜像执行的时候,它将持续的产生页面异常,linux通过进程的内存映射表来确定镜像的哪个部分需要被载入物理内存执行。

Shared virtual memory

Virtual memory makes it easy for several processes to share memory. All memory access are made via page tables and each process has its own separate page table. For two processes sharing a physical page of memory, its physical page frame number must appear in a page table entry in both of their page tables. 虚拟内存使得多个进程共享内存更加简单。所有的内存访问都要通过页表来实现。对于共享一个物理页的两个进程来说,这个物理页面必须同时在两个进程的页表中都有相应的页表项。

虚拟内存区

VMA是用于管理进程地址空间中不同区域的内核数据结构。

进程的内存映射至少包含下面这些区域:

  • 程序可执行代码区域(text)
  • 数据区(bss,stack,data)
  • 与每个活动的内存映射区对应的区域

可以cat /proc/<pid/maps>来查看具体进程的内存映射。

当用户空间进程调用mmap时,系统会创建一个新的VMA来相应它。

注意vm_area_struct这个重要的数据结构(定义在中)。

内存映射处理

系统中每个进程(除了内核空间的辅助线程)都有一个struct mm_struct结构(定义在中),其中包含了大量的内存管理信息。多个进程可以共享内存管理结构,linux就是使用这种方法实现线程的。

mmap设备操作

mmap可以将用户空间的内存和设备内存映射起来,这样在访问分配地址范围内的内存时就相当于访问设备内存了。

并非所有的设备都能进行mmap抽象:

  • 像串口这样面向流的设备就不能
  • mmap的另一个限制:必须以PAGE_SIZE为单位进行映射,因为内核只能在页表一级上对虚拟地址进行管理。

为了执行mmap,驱动程序只需要为该地址范围建立合适的页表,并将vma->vm_ops替换为一系列的新操作就可以了。有两种建立页表的方法:使用remap_pfn_range函数一次全部建立;通过VMA的fault方法一次建立一个新页表。

内存映射的方法

  • 重新映射特定的I/O区域
  • 重新映射ram
  • 重新映射内核虚拟地址
  • 执行直接I/O访问

分配内存

这里我们来看看内核为设备驱动程序提供的内存管理接口。

Kmalloc函数

kmalloc内存分配工具和malloc的使用方法很接近。 它的原型是:

\#include <linux/slab.h> void *kmalloc(size_t size, int flags);

  • flags参数 以多种方式控制kmalloc的行为

最常用的标志是GFP_KERNEL(GFP的来源是因为kmalloc最终会调用get_free_pages函数),这个标志允许kmalloc在页面不足的情况下休眠。

如果在进程上下文之外使用kmalloc,比如中断处理例程中就需要使用GFP_ATOMIC标志,不会休眠

其他标志都定义在文件中,请阅读该文件后使用他们

  • size参数

内核中使用基于页面的方式管理内存,因此和用户空间的基于堆的简单内存管理有很大的差别

由于slab分配器(即kmalloc的底层实现)最大分配的内存单元是128KB,所以如果分配的内存过大,最好不要使用kmalloc方法

高速缓存

内核实现了一些内存池,内核驱动程序通过使用它们可以减少内存分配的次数。

它的api在中,类型为kmem_cache_t。

内存池

内存池其实是某种形式的高速缓冲,它试图始终保持空闲的状态,方便那些要求内存分配不能失败的代码使用。

它的api在中,类型为mempool_t。

get_free_pages和相关函数

如果驱动使用较大块的内存,则适合使用面向页的分配技术。

  • get_zeroed_page(unsigned int flags); 返回指向新页面的指针并清零

  • __get_free_page(unsigned int flags); 返回指针但不清零

  • __get_free_pages(unsigned int flags, unsigned int order); 分配2^order个连续页面,不清零

页分配核心 alloc_pages

alloc_pages用来分配描述用struct page描述的页面内存,使用这种结构描述的内核内存在某些地方使用起来非常方便。

struct page *alloc_pages_node(int nid, unsigned int flags, unsigned int order);

vmalloc以及相关函数

vmalloc分配虚拟地址空间的连续内存。尽管可能这段内存在物理上可能不是连续的。

通过vmalloc获得的内存使用起来效率不高,如果可能,应该直接和单个的页面打交道,也就是使用前面的函数来处理而不是使用vmalloc。vmalloc分配的虚拟地址上可能没有物理内存对应。

kmalloc和__get_free_pages返回的虚拟地址内存范围与物理内存的范围是一一对应的。但vmalloc和ioremap使用的地址范围则是完全虚拟的,每次分配都需要适当的设置页表来建立内存区域。

ioremap也和vmalloc一样建立新页表,但它不会分配内存。它更多用于映射设备缓冲到虚拟内核空间。值得注意的是不能把ioremap返回的指针直接当作内存使用,应该使用I/O函数来访问。

vmalloc的一个小缺点是它不能在原子上下文中使用。

相关的函数定义在中。

per-CPU变量

当建立一个per-CPU变量时,系统的每个处理器都会拥有该变量的副本。对于per-CPU变量的访问几乎不需要锁定,因为每个处理器有自己的副本。

注意当处理器在修改某个per-CPU变量的临界区中间时,它可能被抢占,需要避免这种情况发生。所以我们应该显式地调用get_cpu_var访问某给定变量的当前处理器副本,结束后调用put_cpu_var。

使用方法:

  • DEFINE_PER_CPU(type, name);
  • 动态分配: void *alloc_percpu(type); void *__alloc_percpu(size_t size, size_t align);
  • per_cpu_ptr(void *per_cpu_var, int cpu_id);返回给定cpu_id的per_cpu_var指针

DMA

DMA(Direct Memory Access)是一种高级的硬件机制,它允许外设直接和主内存之间进行I/O传输而不用CPU的干预。

DMA数据传输概览

有两种方式可以引发DMA数据传输:软件对数据的请求;硬件异步地把数据传给系统。

  • 第一种情况:

    • 进程调用read,驱动程序分配一个DMA缓冲,然后让硬件把数据传输到这里,此时进程睡眠
    • 硬件把数据写入到DMA缓冲,写完之后产生一个中断
    • 中断处理程序获取输入的数据,应答中断并唤醒进程,进程即可读取DMA缓冲里面的数据
  • 第二种情况:

    • 硬件产生中断,宣告有数据到来
    • 中断处理程序分配缓冲区,告诉硬件向哪里传输数据
    • 外设将数据写入缓冲,完成后产生另一个中断
    • 处理程序分发新数据,唤醒相关进程,然后执行清理工作

可以看出,高效的DMA传输依赖于中断报告。

分配DMA缓冲区

DMA缓冲区的主要问题是:当大于一页时,它必须占用连续的物理页,这是因为多数外设总线都使用物理地址。

  • 驱动作者必须谨慎的为DMA分配正确的内存类型,并不是所有的内存区间都适合DMA操作。外设不能使用高端内存。
  • 对于有限制的设备,应使用GFP_DMA标志调用内存分配函数。

DIY分配

使用get_free_pages分配大于128KB内存的时候很容易失败返回-ENOMEM。此时的办法是在引导时分配内存或者为缓冲区保留顶部物理内存。

如果要为DMA分配一大块内存,最好考虑分散聚集I/O。

总线地址

硬件和程序代码使用不同的地址,所以需要有一个地址转换。

通用DMA层

由于多种系统对缓存和DMA的处理不同,内核提供了一个通用DMA层,建议在用到DMA时使用该层。struct device隐藏了描述设备的总线细节,在使用通用DMA层时需要使用到该结构的指针。

接下来的DMA函数都需要包含文件

确定设备的DMA能力

int dma_set_mask(struct device *dev, u64 mask); 可以用来确定设备是否支持DMA。

内存分配实现

下面将介绍linux内核中针对不同的应用场景实现的不同内存分配算法。

  • 页框分配,zoned buddy算法
  • 内存区分配,slab 分配器
  • 非连续内存区管理,虚拟内存映射

在支持NUMA的linux内核当中,系统的物理内存被分为多个节点,在单独节点内,任一给定cpu访问页面所需要的时间都是相同的。每个节点的物理内存又分成多个内存区(zone)。x86下内存区有ZONE_DMAZONE_NORMALZONE_HIGHMEM。x86_32系统上,ZONE_HIGHMEM中的内存没有直接映射到内核线性地址上,在每次使用之前都需要先设置页表映射内存。每个zone下面的内存都是以页框为单位来管理的。

每个zone的内存页面是通过buddy算法来管理的。

zoned buddy

页框分配算法需要解决external fragmentation的内存管理问题。linux内核使用buddy算法来解决这个问题。把所有的空闲页分组为2^(order-1)大小的块链表。order的最大值为11,所以一共有11个这样的链表。链表的元素最小的为4k(1一个页面大小),最大的为4M(2^10个页面大小)。请求内存时,内核首先从最接近请求大小的链表中查询,如果有这样的空闲单元,则直接使用。如果没有则一次递增到更大块的内存链表中查询,如果有则将内存分出最接近请求大小的块,在把余下的内存拆分添加到较小的内存链表中。

核心函数

核心接口

  • unsigned long __get_free_pages(gfp_t gfp_mask, unsigned int order);
  • struct page * alloc_pages(gfp_t gfp_mask, unsigned int order);
  • void __free_pages(struct page *page, unsigned int order);

核心实现

  • struct page * __alloc_pages_nodemask(gfp_t gfp_mask, unsigned int order, struct zonelist *zonelist, nodemask_t *nodemask);

TODOS

  • paging
  • segmentation
  • swaping
  • demand paging
  • buddy system & slab allocator(ULK3)
Avatar_small
AAA said:
Sun, 06 Mar 2022 20:59:05 +0800

Nice to be visiting your blog again, it has been months for me. Well this article that i've been waited for so long. I need this article to complete my assignment in the college, and it has same topic with your article. Thanks, great share. North American Bancard ISO Program

Avatar_small
AAA said:
Tue, 22 Mar 2022 03:34:25 +0800

I found that site very usefull and this survey is very cirious, I ' ve never seen a blog that demand a survey for this actions, very curious... Роботи за басейни

Avatar_small
AAA said:
Mon, 28 Mar 2022 19:02:07 +0800

It was wondering if I could use this write-up on my other website, I will link it back to your website though.Great Thanks. heat shrink butt splices

Avatar_small
AAA said:
Sat, 02 Apr 2022 17:50:12 +0800

Your blog is too much amazing. I have found with ease what I was looking. Moreover, the content quality is awesome. Thanks for the nudge! yuxuda oglan usagi gormek

Avatar_small
AAA said:
Sat, 02 Apr 2022 19:52:07 +0800

We have sell some products of different custom boxes.it is very useful and very low price please visit this site thanks and please share this post with your friends. tantangan persahabatan

Avatar_small
AAA said:
Wed, 06 Apr 2022 03:52:37 +0800 Thanks for a wonderful share. Your article has proved your hard work and experience you have got in this field. Brilliant .i love it reading. usdm
Avatar_small
AAA said:
Wed, 06 Apr 2022 17:59:58 +0800

I am very happy to discover your post as it will become on top in my collection of favorite blogs to visit. eurs stablecoin

Avatar_small
AAA said:
Wed, 06 Apr 2022 23:49:20 +0800

I have recently started a blog, the info you provide on this site has helped me greatly. Thanks for all of your time & work. british pound stablecoin

Avatar_small
AAA said:
Thu, 07 Apr 2022 03:33:07 +0800

I got too much interesting stuff on your blog. I guess I am not the only one having all the enjoyment here! Keep up the good work. stablecoin chf

Avatar_small
AAA said:
Fri, 22 Apr 2022 02:18:48 +0800

Thank you for such a well written article. It’s full of insightful information and entertaining descriptions. Your point of view is the best among many. Credit Card Processing Training

Avatar_small
AAA said:
Sun, 29 May 2022 19:09:05 +0800

?MrNewbieVideo? New News: With Five New Apps, Zoho Is Now The Largest Developer On The Google Apps Mar 麥克風


Login *


loading captcha image...
(type the code from the image)
or Ctrl+Enter