文章

内容

​​Linux内存管理:Bootmem的率先登场​

​Bootmem​​启动过程内存分配器

​​Linux内存管理:Buddy System姗姗来迟​

​Buddy System​​伙伴系统内存分配器

​​Linux内存管理:Slab闪亮登场​

​Slab​​内存分配器

这是​​源码剖析专栏​​的第二篇文章

主要分成四大模块来剖析:内存管理、设备管理、系统启动和其他部分

其中内存管理分为​​Bootmem​​​、​​Buddy System​​​和​​Slab​​​三部分来阐述,本文主要阐述的是​​Buddy System​​启动流程


目录

  • ​​buddy system​​
  • ​​free_unused_memmap_node​​
  • ​​free_all_bootmem_node​​
  • ​​register_page_bootmem_info_node​​
  • ​​free_all_bootmem_core​​
  • ​​__free_pages_bootmem​​
  • ​​__free_page​​
  • ​​free_hot_page​​
  • ​​__free_pages_ok​​
  • ​​free_area​​

buddy system

系统初始阶段使用​​bootmem​​​内存分配器,​​Linux​​​中由于​​slab​​​分配器执行​​bootmem​​​的功能,但是​​slab​​​分配器是在伙伴系统​​buddy system​​​中实现的,因此,原来由​​bootmem​​​管理的内存必须由​​buddy system​​伙伴系统管理

在主函数中,即

asmlinkage void __init start_kernel(void)
{
// ...
mem_init();

​zone​​​结构体的成员遍历​​free_area[]​​数组正是构建伙伴系统的核心数据结构

void __init mem_init(void)
{
unsigned int codesize, datasize, initsize;
int i, node;

如果有时间希望可以去看看在​​Bootmem​​​到​​Buddy System​​中间做的一些事情,从构造上来说,主要做了以下几件事

  • 初始化​​per_cpu​​​数据
    注册​​​SMP​​​上的启动进程
    进程调度启动程序
    初始化​​​pglist_data​​​的​​node_zonelists[]​​​成员(备份列表和​​zone​​列表)

free_unused_memmap_node

将物理上不存在的页​​hole​​(空洞)组织页管理位图中全部记录为不使用

/* this will put all unused low memory onto the freelists */
for_each_online_node(node) {
pg_data_t *pgdat = NODE_DATA(node); // 节点描述符

free_unused_memmap_node(node, &meminfo);

函数体为

static void __init free_unused_memmap_node(int node, struct meminfo *mi)
{
unsigned long bank_start, prev_bank_end = 0;
unsigned int i;

for_each_nodebank(i, mi, node) {
struct membank *bank = &mi->bank[i];

bank_start = bank_pfn_start(bank); // 获得bank起始页帧
if (bank_start < prev_bank_end) {
printk(KERN_ERR "MEM: unordered memory banks. "
"Not freeing memmap.\n");
break;
}
// 此时prev_bank_end是前一个bank的末尾
if (prev_bank_end && prev_bank_end != bank_start) // 检查一致性,如果不一致,说明存在空洞
free_memmap(node, prev_bank_end, bank_start);

prev_bank_end = bank_pfn_end(bank); // 本bank的末尾
}
}

检查一致性,如果不一致,说明存在空洞,调用​​free_memmap​

static inline void
free_memmap(int node, unsigned long start_pfn, unsigned long end_pfn)
{
struct page *start_pg, *end_pg;
unsigned long pg, pgend;

// 变为页指针的虚拟地址
start_pg = pfn_to_page(start_pfn);
end_pg = pfn_to_page(end_pfn);

// 以页为单位排列
pg = PAGE_ALIGN(__pa(start_pg));
pgend = __pa(end_pg) & PAGE_MASK;

if (pg < pgend)
free_bootmem_node(NODE_DATA(node), pg, pgend - pg);
}

找到了相应的页帧为空洞,并且在页管理位图中设为了​​0​​​,因此下面要释放对应的​​page​​结构体

free_all_bootmem_node

在页管理位图中记录为“不使用”之后,在本函数进行释放,使其能在伙伴系统中管理空白页

if (pgdat->node_spanned_pages != 0) // 页不为空
totalram_pages += free_all_bootmem_node(pgdat);
}

函数体为

unsigned long __init free_all_bootmem_node(pg_data_t *pgdat)
{
register_page_bootmem_info_node(pgdat); //
return free_all_bootmem_core(pgdat->bdata); // 将bootmem设置中的所有数据迁移到伙伴系统
}

register_page_bootmem_info_node

对具有元信息(附加信息)的各页指定属性,表示该页具有元信息。

如在具有节点描述符结构体的页中,指定该页包含节点信息

void register_page_bootmem_info_node(struct pglist_data *pgdat)
{
unsigned long i, pfn, end_pfn, nr_pages;
int node = pgdat->node_id;
struct page *page;
struct zone *zone;

nr_pages = PAGE_ALIGN(sizeof(struct pglist_data)) >> PAGE_SHIFT;
page = virt_to_page(pgdat);

for (i = 0; i < nr_pages; i++, page++) // 求出pglist_data的大小所需页数,对相应页标记NODE_INFO
get_page_bootmem(node, page, NODE_INFO);

zone = &pgdat->node_zones[0];
for (; zone < pgdat->node_zones + MAX_NR_ZONES - 1; zone++) {
if (zone->wait_table) { // 如果zone中有wait_table,则保存相应列表的所有页
nr_pages = zone->wait_table_hash_nr_entries
* sizeof(wait_queue_head_t);
nr_pages = PAGE_ALIGN(nr_pages) >> PAGE_SHIFT;
page = virt_to_page(zone->wait_table);

for (i = 0; i < nr_pages; i++, page++)
get_page_bootmem(node, page, NODE_INFO);
}
}

pfn = pgdat->node_start_pfn; // 页起始
end_pfn = pfn + pgdat->node_spanned_pages;

/* register_section info */
for (; pfn < end_pfn; pfn += PAGES_PER_SECTION)
register_page_bootmem_info_section(pfn); // 保存节区信息SECTION_INFO和MIX_SECTION_INFO

}

这个函数其实也没做什么,就是加了标志位而已

​get_page_bootmem​​​求出​​pglist_data​​​的大小所需页数,对相应页标记​​NODE_INFO​

/*
* Types for free bootmem.
* The normal smallest mapcount is -1. Here is smaller value than it.
*/
#define SECTION_INFO (-1 - 1)
#define MIX_SECTION_INFO (-1 - 2)
#define NODE_INFO (-1 - 3)
static void get_page_bootmem(unsigned long info,  struct page *page, int type)
{
atomic_set(&page->_mapcount, type);
SetPagePrivate(page);
set_page_private(page, info); // 引用计数加1
atomic_inc(&page->_count);
}

free_all_bootmem_core

将​​bootmem​​​设置中的所有数据迁移到伙伴系统,也是在此函数中将​​bootmem​​进行销毁的

哪些物理页会被释放给​​buddy​​?

  • ​bootmem allocator​​​中所有标识为“未分配”的页首先会被释放被​​buddy allocator​
  • ​bootmem map​​​所占用的内存被释放给​​buddy allocator​

由于​​bootmem​​​分配的页里面的数据基本都是用于内存基本结构(如内核、初始页表、​​pkmap​​​页表、​​struct page​​​实例、​​ramdisk​​​、​​percpu​​​变量、​​entry_hashtable​​​、​​inode_hash_table​​……),在系统运行期间会一直被用到,所以不会被释放。

不够像​​__init​​这种类型的数据段只在系统开机的时候被用到,所以系统初始化完成之后就空页释放掉了。

另外​​bootmem​​​释放给​​buddy​​​的时候,调用的是​​buddy​​​的释放接口,所以在​​buddy​​​初始化之前不能调用​​free_bootmem_core​​函数

系统是通过函数​​free_all_bootmem()​​​来停止的​​bootmem allocator​​使用

return free_all_bootmem_core(pgdat->bdata);

函数体为

static unsigned long __init free_all_bootmem_core(bootmem_data_t *bdata)
{
int aligned;
struct page *page;
unsigned long start, end, pages, count = 0;

求出起始页帧和结束页帧

start = bdata->node_min_pfn; // 起始页帧
end = bdata->node_low_pfn; // 结束页帧
// 如果按及其位宽对齐,那么bootmem就可以按bulk的方式将批量的物理内存转移给buddy,反之只能将
// 没有对齐的部分按单独的物理页帧转移给buddy分配器
aligned = !(start & (BITS_PER_LONG - 1)); // 是否以词单位进行排列

其中

while (start < end) {
unsigned long *map, idx, vec;

map = bdata->node_bootmem_map; // 页管理位图
idx = start - bdata->node_min_pfn; // 起始地址在bitmap中的索引
// 将idx处开始的BITS_PER_LONG个bit值全部取反
vec = ~map[idx / BITS_PER_LONG];
// 释放页时是否一次释放多页
if (aligned && vec == ~0UL && start + BITS_PER_LONG < end) {
int order = ilog2(BITS_PER_LONG); // 获得对应的阶数

__free_pages_bootmem(pfn_to_page(start), order);
count += BITS_PER_LONG;
} else { // 每次释放一页
unsigned long off = 0;

while (vec && off < BITS_PER_LONG) { // 查看vec是否为1
if (vec & 1) { // 如果为1则是可以转移给buddy分配器的
page = pfn_to_page(start + off); // 获得页
__free_pages_bootmem(page, 0); // 将对应的物理页帧转移给buddy分配器
count++;
}
vec >>= 1;
off++;
}
}
start += BITS_PER_LONG;
}

查找用于页管理的页数

pages = bdata->node_low_pfn - bdata->node_min_pfn;

最后

page = virt_to_page(bdata->node_bootmem_map); // 获得物理内存区域bitmap对应的struct page
pages = bdata->node_low_pfn - bdata->node_min_pfn; // 计算当前物理内存区域对应的bitmap占用的物理内存页的数量
pages = bootmem_bootmap_pages(pages);
count += pages; // 更新到count中
while (pages--) // 将bitmap占用的物理页转移到buddy分配器中
__free_pages_bootmem(page++, 0);

bdebug("nid=%td released=%lx\n", bdata - bootmem_node_data, count);

return count; // 返回释放物理页的数量
}

来看看几个转移内存的函数

__free_pages_bootmem

以顺序单位释放页

/*
* permit the bootmem allocator to evade page validation on high-order frees
*/
// page 指向物理页
// order 包含物理页的数量
void __meminit __free_pages_bootmem(struct page *page, unsigned int order)
{
if (order == 0) { // 以1页单位释放页
__ClearPageReserved(page); // 将struct page 从reversed状态转换到可用状态
set_page_count(page, 0); // 使用计数为0
set_page_refcounted(page); // 引用技术为1
__free_page(page); // 将物理页加入到buddy分配器中
} else {
int loop;

prefetchw(page);
for (loop = 0; loop < BITS_PER_LONG; loop++) {
struct page *p = &page[loop];

if (loop + 1 < BITS_PER_LONG)
prefetchw(p + 1);
__ClearPageReserved(p);
set_page_count(p, 0);
}

set_page_refcounted(page);
__free_pages(page, order);
}
}

可见​​__free_page​​​的作用是将物理页加入到​​Buddy System​​中

释放​​1​​​页的时候,每一页的​​count=1​​​,而释放多页的时候,每个多页的第一页​​count=1​​,使得页作为相应顺序的起始页处于使用状态,并避免在内存中被清除

__free_page
#define __free_page(page) __free_pages((page), 0) // 转移多个页使用的就是这个
extern void __free_pages(struct page *page, unsigned int order);

void __free_pages(struct page *page, unsigned int order)
{
if (put_page_testzero(page)) { // 检查将页次数减1之后是否为0,仅在count=1时释放页
if (order == 0) // 则放回每CPU高速缓存中
free_hot_page(page); // 释放到PCP中
else // 此时表示以顺序为单位释放,放到伙伴系统
__free_pages_ok(page, order); // 将页以顺序单位释放
}
}
free_hot_page

从函数体中可以看出,其释放的页主要放在了​​pcp​​​,因此页的分配方式又加了​​pcp​​​一种,即​​per cpu page​

void free_hot_page(struct page *page)
{
free_hot_cold_page(page, 0);
}

static void free_hot_cold_page(struct page *page, int cold)
{
struct zone *zone = page_zone(page); // zone结构体
struct per_cpu_pages *pcp;
unsigned long flags;

if (PageAnon(page))
page->mapping = NULL;
if (free_pages_check(page))
return;

if (!PageHighMem(page)) {
debug_check_no_locks_freed(page_address(page), PAGE_SIZE);
debug_check_no_obj_freed(page_address(page), PAGE_SIZE);
}
arch_free_page(page, 0);
kernel_map_pages(page, 1, 0);
// 获得对应于get_cpu()的CPU的页列表zone->pageste->pcp
// 这是不同cpu具有的1页列表,这些页不会直接返回伙伴系统,而是持有不同cpu的页以快速执行分配
pcp = &zone_pcp(zone, get_cpu())->pcp; //
local_irq_save(flags);
__count_vm_event(PGFREE);
if (cold) // 放到尾部
list_add_tail(&page->lru, &pcp->list);
else // 放到首部
list_add(&page->lru, &pcp->list);
set_page_private(page, get_pageblock_migratetype(page));
pcp->count++;
if (pcp->count >= pcp->high) {
free_pages_bulk(zone, pcp->batch, &pcp->list, 0);
pcp->count -= pcp->batch;
}
local_irq_restore(flags);
put_cpu();
}
__free_pages_ok

针对伙伴系统的内存分配,主要还是由该函数进行释放

static void __free_pages_ok(struct page *page, unsigned int order)
{
// ...
free_one_page(page_zone(page), page, order);
local_irq_restore(flags);
}

static void free_one_page(struct zone *zone, struct page *page, int order)
{
// ...
__free_one_page(page, zone, order);
spin_unlock(&zone->lock);
}

static inline void __free_one_page(struct page *page,
struct zone *zone, unsigned int order)
{
unsigned long page_idx;
int order_size = 1 << order;
int migratetype = get_pageblock_migratetype(page); // 获得页的迁移类型,即移动类型

​free_area[]​​​分为三个链表,由三种不同属性的页组成,因此此处的​​migratetype ​​便是决定将该页放置在哪个链表

​freee_list[]​​数组按迁移类型管理页

// ...
/*将页面转化为全局页面数组的下标*/
page_idx = page_to_pfn(page) & ((1 << MAX_ORDER) - 1); // 对应于2^{MAX_ORDER}个页中第几页的索引

整个释放过程的核心函数使​​__free_one_page​​​,依据申请的算法,那么释放就涉及到对页面能够进行合并的。相关的内存区被添加到伙伴系统中适当的​​free_area​​​列表中,在释放时,该函数将其合并为一个连续的内存区,放置到高一阶的​​free_are​​列表中。如果还能合并一个进一步的伙伴对,那么也进行合并,转移到更高阶的列表中。该过程会一致重复下去,直至所有可能的伙伴对都已经合并,并将改变尽可能向上传播

// 如果被释放的页不是所释放阶的第一个页,则说明参数有误
VM_BUG_ON(page_idx & (order_size - 1));
VM_BUG_ON(bad_range(zone, page));

释放页以后,当前页面可能与前后的空闲页组成更大的空闲页面,直到放到最大阶的伙伴系统中

while (order < MAX_ORDER-1) {
unsigned long combined_idx;
struct page *buddy;
// 找到与当前页属于同一阶的伙伴系统页面的地址
buddy = __page_find_buddy(page, page_idx, order);
// //检查buddy是否描述了大小为order的空闲页框块的第一个页
if (!page_is_buddy(page, buddy, order))
break;

/* Our buddy is free, merge with it and move up one order. */
// 如果能够合并,则将伙伴页从伙伴系统中摘除
list_del(&buddy->lru);
// 同时减少当前阶中的空闲页计数
zone->free_area[order].nr_free--;
// 清除伙伴页的伙伴标志,因为该页会被合并
rmv_page_order(buddy);
// 将当前页与伙伴页合并后,新的页面起始地址
combined_idx = __find_combined_index(page_idx, order);
page = page + (combined_idx - page_idx);
page_idx = combined_idx;
order++;
}
set_page_order(page, order);
// 更高阶的页面已经分配出去,那么将当前页面放到链表前面
list_add(&page->lru,
&zone->free_area[order].free_list[migratetype]);
zone->free_area[order].nr_free++;

但内核如何知道一个伙伴对的两个部分都位于空闲页的列表中呢?为将内存块放回伙伴系统,内核必须计算潜在的伙伴地址,以及在有可能合并的情况下合并后内存块的索引。内核提供辅助函数用于计算

static inline unsigned long
__find_buddy_index(unsigned long page_idx, unsigned int order)
{
return page_idx ^ (1 << order);
}

对于​​__free_one_page​​​试图释放一个​​order​​的一个内存块,有可能不只是当前内存块与能够与其合并的伙伴直接合并,而且高阶的伙伴也可以合并,因此内核需要找到可能的最大分配阶。

假设释放一个​​0​​​阶内存块,即一页,该页的索引值为​​10​​​,假设页​​10​​是合并两个3阶伙伴最后形成一个4阶的内存块,计算如下图所示


伙伴系统释放和合并的过程

释放过程

  • 把释放的快放入空闲块数组
  • 合并满足合并条件的空闲块

合并条件

  • 大小相同
  • 地址相邻
  • 低地址空闲块起始地址为​​2^(i+1)​​的倍数

我个人认为伙伴系统应该叫做伙伴算法更加合适


free_area

移交到高端内存空白页伙伴系统

#ifdef CONFIG_HIGHMEM
/* set highmem page free */
for_each_online_node(node) { // 遍历每个node
for_each_nodebank (i, &meminfo, node) { // 遍历每个bank
unsigned long start = bank_pfn_start(&meminfo.bank[i]); // 开始页帧
unsigned long end = bank_pfn_end(&meminfo.bank[i]); // 结束页帧
if (start >= max_low_pfn + PHYS_PFN_OFFSET)
totalhigh_pages += free_area(start, end, NULL);
}
}
totalram_pages += totalhigh_pages;
#endif

​free_area​​​函数在内部调用​​__free_page()​​函数,将空白页和一般内存区域共同释放到伙伴系统

此处可注意一下​​max_low_pfn​​​这个变量,易知​​max_pfn​​​是当前最大物理页帧号,但是​​max_low_pfn​​是低端内存区(直接映射空间区)的内存的最大可用页帧号。

内核空间分为直接内存映射区(低端、线性)和高端内存映射区

static inline int free_area(unsigned long pfn, unsigned long end, char *s)
{
unsigned int pages = 0, size = (end - pfn) << (PAGE_SHIFT - 10);

for (; pfn < end; pfn++) { //
struct page *page = pfn_to_page(pfn); // 获得page
ClearPageReserved(page);
init_page_count(page);
__free_page(page); // 释放页
pages++;
}

if (size && s)
printk(KERN_INFO "Freeing %s memory: %dK\n", s, size);

return pages;
}

至于为什么要把高端内存区地址进行映射,应该是和系统的分配内存的方式有关
即伙伴算法和​​​slab​​高速缓存都在物理内存映射区分配物理内存,而vmalloc机制则在高端内存映射区分配物理内存