(五)Linux記憶體管理zone_sizes_init
背景
Read the fucking source code!
--By 魯迅A picture is worth a thousand words.
--By 高爾基
說明:
- Kernel版本:4.14
- ARM64處理器,Contex-A53,雙核
- 使用工具:Source Insight 3.5, Visio
1. 介紹
在(四)Linux記憶體模型之Sparse Memory Model中,我們分析了bootmem_init
函式的上半部分,這次讓我們來到下半部分吧,下半部分主要是圍繞zone_sizes_init
函式展開。
前景回顧:
bootmem_init()
函式程式碼如下:
void __init bootmem_init(void) { unsigned long min, max; min = PFN_UP(memblock_start_of_DRAM()); max = PFN_DOWN(memblock_end_of_DRAM()); early_memtest(min << PAGE_SHIFT, max << PAGE_SHIFT); max_pfn = max_low_pfn = max; arm64_numa_init(); /* * Sparsemem tries to allocate bootmem in memory_present(), so must be * done after the fixed reservations. */ arm64_memory_present(); sparse_init(); zone_sizes_init(min, max); memblock_dump_all(); }
在Linux中,實體記憶體地址區域採用zone
來管理。不打算來太多前戲了,先上一張zone_sizes_init
的函式呼叫圖吧:
需要再說明一點是,使用的是ARM64,UMA(只有一個Node)
,此外,流程分析中那些沒有開啟的巨集,相應的函式就不深入分析了。開始探索吧!
2. 資料結構
關鍵的結構體如上圖所示。
在NUMA
架構下,每一個Node
都會對應一個struct pglist_data
,在UMA
架構中只會使用唯一的一個struct pglist_data
結構,比如我們在ARM64 UMA
中使用的全域性變數struct pglist_data __refdata contig_page_data
struct pglist_data 關鍵欄位
struct zone node_zones[]; //對應的ZONE區域,比如ZONE_DMA,ZONE_NORMAL等
struct zonelist_node_zonelists[];
unsigned long node_start_pfn; //節點的起始記憶體頁面幀號
unsigned long node_present_pages; //總共可用的頁面數
unsigned long node_spanned_pages; //總共的頁面數,包括有空洞的區域
wait_queue_head_t kswapd_wait; //頁面回收程序使用的等待佇列
struct task_struct *kswapd; //頁面回收程序
struct zone 關鍵欄位
unsigned long watermark[]; //水位值,WMARK_MIN/WMARK_LOV/WMARK_HIGH,頁面分配器和kswapd頁面回收中會用到
long lowmem_reserved[]; //zone中預留的記憶體
struct pglist_data *zone_pgdat; //執行所屬的pglist_data
struct per_cpu_pageset *pageset; //Per-CPU上的頁面,減少自旋鎖的爭用
unsigned long zone_start_pfn; //ZONE的起始記憶體頁面幀號
unsigned long managed_pages; //被Buddy System管理的頁面數量
unsigned long spanned_pages; //ZONE中總共的頁面數,包含空洞的區域
unsigned long present_pages; //ZONE裡實際管理的頁面數量
struct frea_area free_area[]; //管理空閒頁面的列表
巨集觀點的描述:struct pglist_data
描述單個Node的記憶體(UMA
架構中的所有記憶體),然後記憶體又分成不同的zone
區域,zone
描述區域內的不同頁面,包括空閒頁面,Buddy System
管理的頁面等。
3. zone
上個程式碼吧:
enum zone_type {
#ifdef CONFIG_ZONE_DMA
/*
* ZONE_DMA is used when there are devices that are not able
* to do DMA to all of addressable memory (ZONE_NORMAL). Then we
* carve out the portion of memory that is needed for these devices.
* The range is arch specific.
*
* Some examples
*
* Architecture Limit
* ---------------------------
* parisc, ia64, sparc <4G
* s390 <2G
* arm Various
* alpha Unlimited or 0-16MB.
*
* i386, x86_64 and multiple other arches
* <16M.
*/
ZONE_DMA,
#endif
#ifdef CONFIG_ZONE_DMA32
/*
* x86_64 needs two ZONE_DMAs because it supports devices that are
* only able to do DMA to the lower 16M but also 32 bit devices that
* can only do DMA areas below 4G.
*/
ZONE_DMA32,
#endif
/*
* Normal addressable memory is in ZONE_NORMAL. DMA operations can be
* performed on pages in ZONE_NORMAL if the DMA devices support
* transfers to all addressable memory.
*/
ZONE_NORMAL,
#ifdef CONFIG_HIGHMEM
/*
* A memory area that is only addressable by the kernel through
* mapping portions into its own address space. This is for example
* used by i386 to allow the kernel to address the memory beyond
* 900MB. The kernel will set up special mappings (page
* table entries on i386) for each page that the kernel needs to
* access.
*/
ZONE_HIGHMEM,
#endif
ZONE_MOVABLE,
#ifdef CONFIG_ZONE_DEVICE
ZONE_DEVICE,
#endif
__MAX_NR_ZONES
};
通用記憶體管理要應對各種不同的架構,X86,ARM,MIPS...,為了減少複雜度,只需要挑自己架構相關的。目前我使用的平臺,只配置了ZONE_DMA
和ZONE_NORMAL
。Log輸出如下圖:
為什麼沒有ZONE_NORMAL
區域內,跟蹤一通程式碼發現,ZONE_DMA
區域設定的大小是從起始記憶體開始的4G區域並且不能超過4G邊界區域,而我使用的記憶體為512M,所以都在這個區域內了。
從上述結構體中可以看到,ZONE_DMA
是由巨集定義的,ZONE_NORMAL
才是所有架構都有的區域,那麼為什麼需要一個ZONE_DMA
區域內,來張圖:
所以,如果所有裝置的定址範圍都是在記憶體的區域內的話,那麼一個ZONE_NORMAL
是夠用的。
4. calculate_node_totalpages
這個從名字看就很容易知道是為了統計Node
中的頁面數,一張圖片解釋所有:
- 前邊的文章分析過,實體記憶體由
memblock
維護,整個記憶體區域,是有可能存在空洞區域,也就是圖中的hole
部分; - 針對每個型別的
ZONE
區域,分別會去統計跨越的page frame
,以及可能存在的空洞,並計算實際可用的頁面present_pages
; Node
管理各個ZONE
,它的spanned_pages
和present_pages
是統計各個ZONE
相應頁面之和。
這個過程計算完,基本就把頁框的資訊納入管理了。
5. free_area_init_core
簡單來說,free_area_init_core
函式主要完成struct pglist_data
結構中的欄位初始化,並初始化它所管理的各個zone
,看一下程式碼吧:
/*
* Set up the zone data structures:
* - mark all pages reserved
* - mark all memory queues empty
* - clear the memory bitmaps
*
* NOTE: pgdat should get zeroed by caller.
*/
static void __paginginit free_area_init_core(struct pglist_data *pgdat)
{
enum zone_type j;
int nid = pgdat->node_id;
pgdat_resize_init(pgdat);
#ifdef CONFIG_NUMA_BALANCING
spin_lock_init(&pgdat->numabalancing_migrate_lock);
pgdat->numabalancing_migrate_nr_pages = 0;
pgdat->numabalancing_migrate_next_window = jiffies;
#endif
#ifdef CONFIG_TRANSPARENT_HUGEPAGE
spin_lock_init(&pgdat->split_queue_lock);
INIT_LIST_HEAD(&pgdat->split_queue);
pgdat->split_queue_len = 0;
#endif
init_waitqueue_head(&pgdat->kswapd_wait);
init_waitqueue_head(&pgdat->pfmemalloc_wait);
#ifdef CONFIG_COMPACTION
init_waitqueue_head(&pgdat->kcompactd_wait);
#endif
pgdat_page_ext_init(pgdat);
spin_lock_init(&pgdat->lru_lock);
lruvec_init(node_lruvec(pgdat));
pgdat->per_cpu_nodestats = &boot_nodestats;
for (j = 0; j < MAX_NR_ZONES; j++) {
struct zone *zone = pgdat->node_zones + j;
unsigned long size, realsize, freesize, memmap_pages;
unsigned long zone_start_pfn = zone->zone_start_pfn;
size = zone->spanned_pages;
realsize = freesize = zone->present_pages;
/*
* Adjust freesize so that it accounts for how much memory
* is used by this zone for memmap. This affects the watermark
* and per-cpu initialisations
*/
memmap_pages = calc_memmap_size(size, realsize);
if (!is_highmem_idx(j)) {
if (freesize >= memmap_pages) {
freesize -= memmap_pages;
if (memmap_pages)
printk(KERN_DEBUG
" %s zone: %lu pages used for memmap\n",
zone_names[j], memmap_pages);
} else
pr_warn(" %s zone: %lu pages exceeds freesize %lu\n",
zone_names[j], memmap_pages, freesize);
}
/* Account for reserved pages */
if (j == 0 && freesize > dma_reserve) {
freesize -= dma_reserve;
printk(KERN_DEBUG " %s zone: %lu pages reserved\n",
zone_names[0], dma_reserve);
}
if (!is_highmem_idx(j))
nr_kernel_pages += freesize;
/* Charge for highmem memmap if there are enough kernel pages */
else if (nr_kernel_pages > memmap_pages * 2)
nr_kernel_pages -= memmap_pages;
nr_all_pages += freesize;
/*
* Set an approximate value for lowmem here, it will be adjusted
* when the bootmem allocator frees pages into the buddy system.
* And all highmem pages will be managed by the buddy system.
*/
zone->managed_pages = is_highmem_idx(j) ? realsize : freesize;
#ifdef CONFIG_NUMA
zone->node = nid;
#endif
zone->name = zone_names[j];
zone->zone_pgdat = pgdat;
spin_lock_init(&zone->lock);
zone_seqlock_init(zone);
zone_pcp_init(zone);
if (!size)
continue;
set_pageblock_order();
setup_usemap(pgdat, zone, zone_start_pfn, size);
init_currently_empty_zone(zone, zone_start_pfn, size);
memmap_init(size, nid, j, zone_start_pfn);
}
}
- 初始化
struct pglist_data
內部使用的鎖和佇列;
遍歷各個zone
區域,進行如下初始化:
根據
zone
的spanned_pages
和present_pages
,呼叫calc_memmap_size
計算管理該zone
所需的struct page
結構所佔的頁面數memmap_pages
;zone
中的freesize
表示可用的區域,需要減去memmap_pages
和DMA_RESERVE
的區域,如下圖在開發板的Log列印所示:memmap
使用2048
頁,DMA
保留0頁;
計算
nr_kernel_pages
和nr_all_pages
的數量,為了說明這兩個引數和頁面的關係,來一張圖(由於我使用的平臺只有一個ZONE_DMA
區域,且ARM64
沒有ZONE_HIGHMEM
區域,不具備典型性,故以ARM32
為例):
初始化
zone
使用的各類鎖;分配和初始化
usemap
,初始化Buddy System
中使用的free_area[]
,lruvec
,pcp
等;memmap_init()->memmap_init_zone()
,該函式主要是根據PFN
,通過pfn_to_page
找到對應的struct page
結構,並將該結構進行初始化處理,並設定MIGRATE_MOVABLE
標誌,表明可移動;
最後,當我們回顧bootmem_init
函式時,發現它基本上完成了linux實體記憶體框架的初始化,包括Node
, Zone
, Page Frame
,以及對應的資料結構等。
結合上篇文章(四)Linux記憶體模型之Sparse Memory Model閱讀,效果會更佳噢!
持續中...
相關推薦
(五)Linux記憶體管理zone_sizes_init
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,
【原創】(十五)Linux記憶體管理之RMAP
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,
【原創】(六)Linux記憶體管理 - zoned page frame allocator - 1
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,
【原創】(七)Linux記憶體管理 - zoned page frame allocator - 2
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,
【原創】(八)Linux記憶體管理 - zoned page frame allocator - 3
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,
【原創】(九)Linux記憶體管理 - zoned page frame allocator - 4
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,
【原創】(十三)Linux記憶體管理之vma/malloc/mmap
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,
Linux用戶管理(五)Linux系統的啟動
linux系統啟動Linux系統的啟動一.啟動步驟和GRUB1.Linux啟動過程分析 (1)BIOS自檢l 硬件檢測及初始化l 引導啟動設備(2)引導啟動設備l 軟盤(0磁道第一個扇
Linux系列教程(五)——Linux鏈接命令和權限管理命令
密碼 mission pos link 掩碼 Owner 最大的 linux系統 passwd 前一篇博客我們講解了Linux文件和目錄處理命令,還是老生常淡,對於新手而言,我們不需要完全記住命令的詳細語法,記住該命令能完成什麽功能,然後需要的時候去查就好了,用的多了我
Linux系統管理初步(五)Linux系統的防火墻-firewalld 編輯中
from lin proc isa network set http sele 被拒 CentOS7中,系統自帶的netfilter操作程序由iptables變為firewalld。 一、firewalld中的9個zone firewalld中有9個zone,各個zone的
java程式設計師菜鳥進階(十七)linux基礎入門(五)linux檔案/目錄的許可權和歸屬管理
在linux中的每一個檔案或目錄都包含有訪問許可權,這些訪問許可權決定了誰能訪問和如何訪問這些檔案和目錄。相應的每一個檔案和目錄都有所屬的屬主和屬組,合理的設定檔案和目錄的屬組和屬主在檔案/目錄管理中佔據著很重要的地位,所以,今天我就和大家一起來看一下有關檔案/目錄的許可權和歸屬的相關設定
Linux環境程序間通訊(五): 共享記憶體(下)(轉)
轉自http://www.ibm.com/developerworks/cn/linux/l-ipc/part5/index2.html, 作者:鄭彥興系統呼叫mmap()通過對映一個普通檔案實現共享記憶體。系統V則是通過對映特殊檔案系統shm中的檔案實現程序間的共享記憶體通訊。也就是說,每個共享記憶體區域對
Linux環境程序間通訊(五): 共享記憶體(上)(轉)
轉自http://www.ibm.com/developerworks/cn/linux/l-ipc/part5/index1.html, 作者:鄭彥興採用共享記憶體通訊的一個顯而易見的好處是效率高,因為程序可以直接讀寫記憶體,而不需要任何資料的拷貝。對於像管道和訊息佇列等通訊方式,則需要在內 核和使用者空間
Linux(五)Linux遠端連線管理工具xftp,xshell使用
1.為了方便我們在window系統中操作Linux伺服器,有很多Linux伺服器管理工具,這裡我們介紹一下xftp和xshell的使用。 xftp主要是在window系統上通過介面形式方便進行檔案傳輸以及對遠端主機的操控 xshell主要是在window系統上通過命令
linux中記憶體洩漏的檢測(五)記錄記憶體洩漏的程式碼
到目前為止,先後通過wrap malloc、new函式過載和計算指標記憶體大小的方法,基本上滿足了對記憶體洩漏檢測的需要。 如果發現了記憶體洩漏,那麼就要找到記憶體洩漏的地方並且修正它了。 茫茫程式碼,如何去找?如果能根據未釋放的記憶體找到申請它的地方就好了。 我們
Linux環境程序間通訊(五) 共享記憶體(下)
系統呼叫mmap()通過對映一個普通檔案實現共享記憶體。系統V則是通過對映特殊檔案系統shm中的檔案實現程序間的共享記憶體通訊。也就是說,每個共享記憶體區域對應特殊檔案系統shm中的一個檔案(這是通過shmid_kernel結構聯絡起來的),後面還將闡述。 1、系統V共
【原創】(十一)Linux記憶體管理slub分配器
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,
【原創】(十二)Linux記憶體管理之vmap與vmalloc
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,
【原創】(十四)Linux記憶體管理之page fault處理
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,
【原創】(十六)Linux記憶體管理之CMA
背景 Read the fucking source code! --By 魯迅 A picture is worth a thousand words. --By 高爾基 說明: Kernel版本:4.14 ARM64處理器,Contex-A53,雙核 使用工具:Source Insight 3.5,