15.Linux記憶體工作原理
記憶體
同 CPU 管理一樣,記憶體管理也是作業系統最核心的功能之一。記憶體主要用來儲存系統和應用程式的指令、資料、快取等。
那麼,Linux 到底是怎麼管理記憶體的呢?
記憶體對映
說到記憶體,你能說出你現在用的這臺計算機記憶體有多大嗎?比方說,膝上型電腦記憶體就是 8GB 的 。
通常所說的記憶體容量,就像剛剛提到的 8GB,其實指的是實體記憶體。實體記憶體也稱為主存,大多數計算機用的主存都是動態隨機訪問記憶體(DRAM)。只有核心才可以直接訪問實體記憶體。那麼,程序要訪問記憶體時,該怎麼辦呢?
Linux 核心給每個程序都提供了一個獨立的虛擬地址空間,並且這個地址空間是連續的。這樣,程序就可以很方便地訪問記憶體,更確切地說是訪問虛擬記憶體。
虛擬地址空間的內部又被分為核心空間和使用者空間兩部分,不同字長(也就是單個 CPU 指令可以處理資料的最大長度)的處理器,地址空間的範圍也不同。比如最常見的 32 位和 64 位系統,我畫了兩張圖來分別表示它們的虛擬地址空間,如下所示:
通過這裡可以看出,32 位系統的核心空間佔用 1G,位於最高處,剩下的 3G 是使用者空間。而 64 位系統的核心空間和使用者空間都是 128T,分別佔據整個記憶體空間的最高和最低處,剩下的中間部分是未定義的。
還記得程序的使用者態和核心態嗎?程序在使用者態時,只能訪問使用者空間記憶體;只有進入核心態後,才可以訪問核心空間記憶體。雖然每個程序的地址空間都包含了核心空間,但這些核心空間,其實關聯的都是相同的實體記憶體。這樣,程序切換到核心態後,就可以很方便地訪問核心空間記憶體。
既然每個程序都有一個這麼大的地址空間,那麼所有程序的虛擬記憶體加起來,自然要比實際的實體記憶體大得多。所以,並不是所有的虛擬記憶體都會分配實體記憶體,只有那些實際使用的虛擬記憶體才分配實體記憶體,並且分配後的實體記憶體,是通過記憶體對映來管理的。
記憶體對映,其實就是將虛擬記憶體地址對映到實體記憶體地址。為了完成記憶體對映,核心為每個程序都維護了一張頁表,記錄虛擬地址與實體地址的對映關係,如下圖所示:
頁表實際上儲存在 CPU 的記憶體管理單元 MMU 中,這樣,正常情況下,處理器就可以直接通過硬體,找出要訪問的記憶體。
而當程序訪問的虛擬地址在頁表中查不到時,系統會產生一個缺頁異常,進入核心空間分配實體記憶體、更新程序頁表,最後再返回使用者空間,恢復程序的執行。
另外,在 CPU 上下文切換的文章中曾經提到, TLB(Translation Lookaside Buffer,轉譯後備緩衝器)會影響 CPU 的記憶體訪問效能,在這裡其實就可以得到解釋。
TLB 其實就是 MMU 中頁表的快取記憶體。由於程序的虛擬地址空間是獨立的,而 TLB 的訪問速度又比 MMU 快得多,所以,通過減少程序的上下文切換,減少 TLB 的重新整理次數,就可以提高 TLB 快取的使用率,進而提高 CPU 的記憶體訪問效能。
不過要注意,MMU 並不以位元組為單位來管理記憶體,而是規定了一個記憶體對映的最小單位,也就是頁,通常是 4 KB 大小。這樣,每一次記憶體對映,都需要關聯 4 KB 或者 4KB 整數倍的記憶體空間。
頁的大小隻有 4 KB ,導致的另一個問題就是,整個頁表會變得非常大。比方說,僅 32 位系統就需要 100 多萬個頁表項(4GB/4KB),才可以實現整個地址空間的對映。為了解決頁表項過多的問題,Linux 提供了兩種機制,也就是多級頁表和大頁(HugePage)。
多級頁表就是把記憶體分成區塊來管理,將原來的對映關係改成區塊索引和區塊內的偏移。由於虛擬記憶體空間通常只用了很少一部分,那麼,多級頁表就只儲存這些使用中的區塊,這樣就可以大大地減少頁表的項數。
Linux 用的正是四級頁表來管理記憶體頁,如下圖所示,虛擬地址被分為 5 個部分,前 4 個表項用於選擇頁,而最後一個索引表示頁內偏移。
再看大頁,顧名思義,就是比普通頁更大的記憶體塊,常見的大小有 2MB 和 1GB。大頁通常用在使用大量記憶體的程序上,比如 Oracle、DPDK 等。
通過這些機制,在頁表的對映下,程序就可以通過虛擬地址來訪問實體記憶體了。那麼具體到一個 Linux 程序中,這些記憶體又是怎麼使用的呢?
虛擬記憶體空間分佈
首先,我們需要進一步瞭解虛擬記憶體空間的分佈情況。最上方的核心空間不用多講,下方的使用者空間記憶體,其實又被分成了多個不同的段。以 32 位系統為例,我畫了一張圖來表示它們的關係。
通過這張圖你可以看到,使用者空間記憶體,從低到高分別是五種不同的記憶體段。
-
只讀段,包括程式碼和常量等。
-
資料段,包括全域性變數等。
-
堆,包括動態分配的記憶體,從低地址開始向上增長。
-
檔案對映段,包括動態庫、共享記憶體等,從高地址開始向下增長。
- 棧,包括區域性變數和函式呼叫的上下文等。棧的大小是固定的,一般是 8 MB。
在這五個記憶體段中,堆和檔案對映段的記憶體是動態分配的。比如說,使用 C 標準庫的 malloc() 或者 mmap() ,就可以分別在堆和檔案對映段動態分配記憶體。
其實 64 位系統的記憶體分佈也類似,只不過記憶體空間要大得多。那麼,更重要的問題來了,記憶體究竟是怎麼分配的呢?
記憶體分配與回收
malloc() 是 C 標準庫提供的記憶體分配函式,對應到系統呼叫上,有兩種實現方式,即 brk() 和 mmap()。
對小塊記憶體(小於 128K),C 標準庫使用 brk() 來分配,也就是通過移動堆頂的位置來分配記憶體。這些記憶體釋放後並不會立刻歸還系統,而是被快取起來,這樣就可以重複使用。
而大塊記憶體(大於 128K),則直接使用內存對映 mmap() 來分配,也就是在檔案對映段找一塊空閒記憶體分配出去。
這兩種方式,自然各有優缺點。
brk() 方式的快取,可以減少缺頁異常的發生,提高記憶體訪問效率。不過,由於這些記憶體沒有歸還系統,在記憶體工作繁忙時,頻繁的記憶體分配和釋放會造成記憶體碎片。
而 mmap() 方式分配的記憶體,會在釋放時直接歸還系統,所以每次 mmap 都會發生缺頁異常。在記憶體工作繁忙時,頻繁的記憶體分配會導致大量的缺頁異常,使核心的管理負擔增大。這也是 malloc 只對大塊記憶體使用 mmap 的原因。
瞭解這兩種呼叫方式後,我們還需要清楚一點,那就是,當這兩種呼叫發生後,其實並沒有真正分配記憶體。這些記憶體,都只在首次訪問時才分配,也就是通過缺頁異常進入核心中,再由核心來分配記憶體。
整體來說,Linux 使用夥伴系統來管理記憶體分配。前面我們提到過,這些記憶體在 MMU 中以頁為單位進行管理,夥伴系統也一樣,以頁為單位來管理記憶體,並且會通過相鄰頁的合併,減少記憶體碎片化(比如 brk 方式造成的記憶體碎片)。
你可能會想到一個問題,如果遇到比頁更小的物件,比如不到 1K 的時候,該怎麼分配記憶體呢?
實際系統執行中,確實有大量比頁還小的物件,如果為它們也分配單獨的頁,那就太浪費記憶體了。
所以,在使用者空間,malloc 通過 brk() 分配的記憶體,在釋放時並不立即歸還系統,而是快取起來重複利用。在核心空間,Linux 則通過 slab 分配器來管理小記憶體。你可以把 slab 看成構建在夥伴系統上的一個快取,主要作用就是分配並釋放核心中的小物件。
對記憶體來說,如果只分配而不釋放,就會造成記憶體洩漏,甚至會耗盡系統記憶體。所以,在應用程式用完記憶體後,還需要呼叫 free() 或 unmap() ,來釋放這些不用的記憶體。
當然,系統也不會任由某個程序用完所有記憶體。在發現記憶體緊張時,系統就會通過一系列機制來回收記憶體,比如下面這三種方式:
-
回收快取,比如使用 LRU(Least Recently Used)演算法,回收最近使用最少的記憶體頁面;
-
回收不常訪問的記憶體,把不常用的記憶體通過交換分割槽直接寫到磁碟中;
-
殺死程序,記憶體緊張時系統還會通過 OOM(Out of Memory),直接殺掉佔用大量記憶體的程序。
其中,第二種方式回收不常訪問的記憶體時,會用到交換分割槽(以下簡稱 Swap)。Swap 其實就是把一塊磁碟空間當成記憶體來用。它可以把程序暫時不用的資料儲存到磁碟中(這個過程稱為換出),當程序訪問這些記憶體時,再從磁碟讀取這些資料到記憶體中(這個過程稱為換入)。
所以,你可以發現,Swap 把系統的可用記憶體變大了。不過要注意,通常只在記憶體不足時,才會發生 Swap 交換。並且由於磁碟讀寫的速度遠比記憶體慢,Swap 會導致嚴重的記憶體效能問題。
第三種方式提到的 OOM(Out of Memory),其實是核心的一種保護機制。它監控程序的記憶體使用情況,並且使用 oom_score 為每個程序的記憶體使用情況進行評分:
-
一個程序消耗的記憶體越大,oom_score 就越大;
-
一個程序執行佔用的 CPU 越多,oom_score 就越小。
這樣,程序的 oom_score 越大,代表消耗的記憶體越多,也就越容易被 OOM 殺死,從而可以更好保護系統。
當然,為了實際工作的需要,管理員可以通過 /proc 檔案系統,手動設定程序的 oom_adj ,從而調整程序的 oom_score。
oom_adj 的範圍是 [-17, 15],數值越大,表示程序越容易被 OOM 殺死;數值越小,表示程序越不容易被 OOM 殺死,其中 -17 表示禁止 OOM。
比如用下面的命令,你就可以把 sshd 程序的 oom_adj 調小為 -16,這樣, sshd 程序就不容易被 OOM 殺死。
echo -16 > /proc/$(pidof sshd)/oom_adj
如何檢視記憶體使用情況
通過了解記憶體空間的分佈,以及記憶體的分配和回收,我想你對記憶體的工作原理應該有了大概的認識。當然,系統的實際工作原理更加複雜,也會涉及其他一些機制,這裡我只講了最主要的原理。掌握了這些,你可以對記憶體的運作有一條主線認識,不至於腦海裡只有術語名詞的堆砌。
那麼在瞭解記憶體的工作原理之後,我們又該怎麼檢視系統記憶體使用情況呢?
其實前面 CPU 內容的學習中,我們也提到過一些相關工具。在這裡,你第一個想到的應該是 free 工具吧。下面是一個 free 的輸出示例:
# 注意不同版本的 free 輸出可能會有所不同 $ free total used free shared buff/cache available Mem: 8169348 263524 6875352 668 1030472 7611064 Swap: 0 0 0
你可以看到,free 輸出的是一個表格,其中的數值都預設以位元組為單位。表格總共有兩行六列,這兩行分別是實體記憶體 Mem 和交換分割槽 Swap 的使用情況,而六列中,每列資料的含義分別為:
-
第一列,total 是總記憶體大小;
-
第二列,used 是已使用記憶體的大小,包含了共享記憶體;
-
第三列,free 是未使用記憶體的大小;
-
第四列,shared 是共享記憶體的大小;
-
第五列,buff/cache 是快取和緩衝區的大小;
-
最後一列,available 是新程序可用記憶體的大小。
這裡尤其注意一下,最後一列的可用記憶體 available 。available 不僅包含未使用記憶體,還包括了可回收的快取,所以一般會比未使用記憶體更大。不過,並不是所有快取都可以回收,因為有些快取可能正在使用中。
不過,我們知道,free 顯示的是整個系統的記憶體使用情況。如果你想檢視程序的記憶體使用情況,可以用 top 或者 ps 等工具。比如,下面是 top 的輸出示例:
# 按下 M 切換到記憶體排序 $ top ... KiB Mem : 8169348 total, 6871440 free, 267096 used, 1030812 buff/cache KiB Swap: 0 total, 0 free, 0 used. 7607492 avail Mem PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 430 root 19 -1 122360 35588 23748 S 0.0 0.4 0:32.17 systemd-journal 1075 root 20 0 771860 22744 11368 S 0.0 0.3 0:38.89 snapd 1048 root 20 0 170904 17292 9488 S 0.0 0.2 0:00.24 networkd-dispat 1 root 20 0 78020 9156 6644 S 0.0 0.1 0:22.92 systemd 12376 azure 20 0 76632 7456 6420 S 0.0 0.1 0:00.01 systemd 12374 root 20 0 107984 7312 6304 S 0.0 0.1 0:00.00 sshd ...
top 輸出介面的頂端,也顯示了系統整體的記憶體使用情況,這些資料跟 free 類似,我就不再重複解釋。我們接著看下面的內容,跟記憶體相關的幾列資料,比如 VIRT、RES、SHR 以及 %MEM 等。
這些資料,包含了程序最重要的幾個記憶體使用情況,我們挨個來看。
-
VIRT 是程序虛擬記憶體的大小,只要是程序申請過的記憶體,即便還沒有真正分配實體記憶體,也會計算在內。
-
RES 是常駐記憶體的大小,也就是程序實際使用的實體記憶體大小,但不包括 Swap 和共享記憶體。
-
SHR 是共享記憶體的大小,比如與其他程序共同使用的共享記憶體、載入的動態連結庫以及程式的程式碼段等。
-
%MEM 是程序使用實體記憶體佔系統總記憶體的百分比。
除了要認識這些基本資訊,在檢視 top 輸出時,你還要注意兩點。
第一,虛擬記憶體通常並不會全部分配實體記憶體。從上面的輸出,你可以發現每個程序的虛擬記憶體都比常駐記憶體大得多。
第二,共享記憶體 SHR 並不一定是共享的,比方說,程式的程式碼段、非共享的動態連結庫,也都算在 SHR 裡。當然,SHR 也包括了程序間真正共享的記憶體。所以在計算多個程序的記憶體使用時,不要把所有程序的 SHR 直接相加得出結果。
小結
梳理了 Linux 記憶體的工作原理。對普通程序來說,它能看到的其實是核心提供的虛擬記憶體,這些虛擬記憶體還需要通過頁表,由系統對映為實體記憶體。
當程序通過 malloc() 申請記憶體後,記憶體並不會立即分配,而是在首次訪問時,才通過缺頁異常陷入核心中分配記憶體。
由於程序的虛擬地址空間比實體記憶體大很多,Linux 還提供了一系列的機制,應對記憶體不足的問題,比如快取的回收、交換分割槽 Swap 以及 OOM 等。
當你需要了解系統或者程序的記憶體使用情況時,可以用 free 和 top 、ps 等效能工具。它們都是分析效能問題時最常用的效能工具,希望你能熟練使用它們,並真正理解各個指標的含義。