1. 程式人生 > >清理buffer/cache/swap的方法梳理

清理buffer/cache/swap的方法梳理

一、快取機制介紹

在Linux系統中,為了提高檔案系統性能,核心利用一部分實體記憶體分配出緩衝區,用於快取系統操作和資料檔案,當核心收到讀寫的請求時,核心先去快取區找是否有請求的資料,有就直接返回,如果沒有則通過驅動程式直接操作磁碟。
快取機制優點:減少系統呼叫次數,降低CPU上下文切換和磁碟訪問頻率。
CPU上下文切換:CPU給每個程序一定的服務時間,當時間片用完後,核心從正在執行的程序中收回處理器,同時把程序當前執行狀態儲存下來,然後載入下一個任務,這個過程叫做上下文切換。實質上就是被終止執行程序與待執行程序的程序切換。

Swap用途:Swap意思是交換分割槽,通常我們說的虛擬記憶體,是從硬碟中劃分出的一個分割槽。當實體記憶體不夠用的時候,核心就會釋放快取區(buffers/cache)裡一些長時間不用的程式,然後將這些程式臨時放到Swap中,也就是說如果實體記憶體和快取區記憶體不夠用的時候,才會用到Swap。
swap清理:swapoff -a && swapon -a
注意:這樣清理有個前提條件,空閒的記憶體必須比已經使用的swap空間大

二、檢視快取區及記憶體使用情況

free命令用於檢測實體記憶體和交換記憶體已使用量和可用量(預設單位為KB)
[[email protected] ~]# free -m           //使用-m引數表示以兆位元組為單位顯示記憶體
             total       used       free     shared    buffers     cached
Mem:         64181      44372      19809          3         12        216
-/+ buffers/cache:      44143      20038
Swap:        32767          0      32767
  
第一部分Mem行解釋:
total:記憶體總數;
used:已經使用的記憶體數;
free:空閒的記憶體數;
shared:當前已經廢棄不用;
buffers Buffer:快取記憶體數;
cached Page:快取記憶體數。
關係:total = used + free
  
第二部分(-/+ buffers/cache)解釋:
(-buffers/cache) used記憶體數:第一部分Mem行中的 used – buffers – cached
(+buffers/cache) free記憶體數: 第一部分Mem行中的 free + buffers + cached
  
可見-buffers/cache反映的是被程式實實在在吃掉的記憶體,而+buffers/cache反映的是可以挪用的記憶體總數。
  
第三部分是指交換分割槽。
  
---------------------------------------------------------------------------------------------
以位元組為單位顯示記憶體
加上-b引數的free命令,以位元組為單位顯示記憶體的大小。
  
[
[email protected]
~]# free -b total used free shared buffers cached Mem: 67299549184 46525181952 20774367232 3272704 12820480 227033088 -/+ buffers/cache: 46285328384 21014220800 Swap: 34359734272 0 34359734272 ------------------------------------------------------------------------------------------- 以千位元組為單位顯示記憶體 加上-k引數的free命令(預設單位,所以可以不用使用它),以(KB)千位元組為單位顯示記憶體大小。 [
[email protected]
~]# free -k total used free shared buffers cached Mem: 65722216 45435760 20286456 3196 12520 221712 -/+ buffers/cache: 45201528 20520688 Swap: 33554428 0 33554428 ------------------------------------------------------------------------------------------- 以千兆位元組為單位顯示記憶體 使用-g為引數,將會以GB(千兆位元組)為單位顯示記憶體大小。 [[email protected] ~]# free -g total used free shared buffers cached Mem: 62 43 19 0 0 0 -/+ buffers/cache: 43 19 Swap: 31 0 31 ------------------------------------------------------------------------------------------ 定期時間間隔更新記憶體狀態 -s選項加上一個整數,用來在定期時間間隔內更新free命令。舉個例子,下面的命令將會在每5秒更新一個free命令。 [[email protected] ~]# free -s 5 total used free shared buffers cached Mem: 65722216 45436660 20285556 3196 12712 222096 -/+ buffers/cache: 45201852 20520364 Swap: 33554428 0 33554428 total used free shared buffers cached Mem: 65722216 45436592 20285624 3196 12720 222096 -/+ buffers/cache: 45201776 20520440 Swap: 33554428 0 33554428

  

三、buffers和cached解釋

=========================================================
快取(cached)是把讀取過的資料儲存起來,重新讀取時若命中(找到需要的資料)就不要去讀硬碟了,若沒有命中就讀硬碟。其中的資料會根據讀取頻率進行組織,把最頻繁讀取的內容放在最容易找到的位置,把不再讀的內容不斷往後排,直至從中刪除。

緩衝(buffers)是根據磁碟的讀寫設計的,把分散的寫操作集中進行,減少磁碟碎片和硬碟的反覆尋道,從而提高系統性能。linux有一個守護程序定期清空緩衝內容(即寫入磁碟),也可以通過sync命令手動清空緩衝。舉個例子吧:我這裡有一個ext2的U盤,我往裡面cp一個3M的MP3,但U盤的燈沒有跳動,過了一會兒(或者手動輸入sync)U盤的燈就跳動起來了。解除安裝裝置時會清空緩衝,所以有些時候解除安裝一個裝置時要等上幾秒鐘。

修改/etc/sysctl.conf中的vm.swappiness右邊的數字可以在下次開機時調節swap使用策略。該數字範圍是0~100,數字越大越傾向於使用swap。預設為60,可以改一下試試。–兩者都是RAM中的資料。

兩者都是RAM中的資料,簡單來說,buffer是即將要被寫入磁碟的,而cache是被從磁碟中讀出來的。
buffer是由各種程序分配的,被用在如輸入佇列等方面。一個簡單的例子如某個程序要求有多個欄位讀入,在所有欄位被讀入完整之前,程序把先前讀入的欄位放在buffer中儲存。
cache經常被用在磁碟的I/O請求上,如果有多個程序都要訪問某個檔案,於是該檔案便被做成cache以方便下次被訪問,這樣可提高系統性能。
========================================================

Cache:緩衝區,快取記憶體,是位於CPU與主記憶體間的一種容量較小但速度很高的儲存器。由於CPU的速度遠高於主記憶體,CPU直接從記憶體中存取資料要等待一定時間週期,Cache中儲存著CPU剛用過或迴圈使用的一部分資料,當CPU再次使用該部分資料時可從Cache中直接呼叫,這樣就減少了CPU的等待時間,提高了系統的效率。Cache又分為一級Cache(L1 Cache)和二級Cache(L2 Cache),L1 Cache整合在CPU內部,L2 Cache早期一般是焊在主機板上,現在也都整合在CPU內部,常見的容量有256KB或512KB L2 Cache。它是根據程式的區域性性原理而設計的,就是cpu執行的指令和訪問的資料往往在集中的某一塊,所以把這塊內容放入cache後,cpu就不用在訪問記憶體了,這就提高了訪問速度。當然若cache中沒有cpu所需要的內容,還是要訪問記憶體的。從記憶體讀取與磁碟讀取角度考慮,cache可以理解為作業系統為了更高的讀取效率,更多的使用記憶體來快取可能被再次訪問的資料。

Cache並不是快取檔案的,而是快取塊的(塊是I/O讀寫最小的單元);Cache一般會用在I/O請求上,如果多個程序要訪問某個檔案,可以把此檔案讀入Cache中,這樣下一個程序獲取CPU控制權並訪問此檔案直接從Cache讀取,提高系統性能。

Buffer:緩衝區,一個用於儲存速度不同步的裝置或優先順序不同的裝置之間傳輸資料的區域。通過buffer可以減少程序間通訊需要等待的時間,當儲存速度快的裝置與儲存速度慢的裝置進行通訊時,儲存慢的資料先把資料存放到buffer,達到一定程度儲存快的裝置再讀取buffer的資料,在此期間儲存快的裝置CPU可以幹其他的事情。

Buffer:一般是用在寫入磁碟的,例如:某個程序要求多個欄位被讀入,當所有要求的欄位被讀入之前已經讀入的欄位會先放到buffer中。Buffer是根據磁碟的讀寫設計的,把分散的寫操作集中進行,減少磁碟碎片和硬碟的反覆尋道,從而提高系統性能。linux有一個守護程序定期清空緩衝內容(即寫入磁碟),也可以通過sync命令手動清空緩衝。

cache是快取記憶體,用於CPU和記憶體之間的緩衝;
buffer是I/O快取,用於記憶體和硬碟的緩衝;

cache最初用於cpu cache,主要原因是cpu 與memory,由於cpu快,memory跟不上,且有些值使用次數多,所以放入cache中,主要目的是,重複使用,並且一級\二級物理cache速度快,
buffer主要用於disk與 memory,主要是保護硬碟或減少網路傳輸的次數(記憶體資料表現dataSet).當然也可以提高速度(不會立即寫入硬碟或直接從硬碟中讀出的資料馬上顯示),重複使用,最初最主要的目的是保護disk,

Free中的buffer和cache:(它們都是佔用記憶體):
buffer : 作為buffer cache的記憶體,是塊裝置的讀寫緩衝區
cache: 作為page cache的記憶體, 檔案系統的cache

如果 cache 的值很大,說明cache住的檔案數很多。如果頻繁訪問到的檔案都能被cache住,那麼磁碟的讀IO bi會非常小。
========================================================

下面通過一些簡單通俗的例子來說明下Cache和Buffer快取之間的區別:

1)Cache快取

假設某地發生了自然災害(比如地震),居民缺衣少食,於是派救火車去給若干個居民點送水。救火車到達第一個居民點,開閘放水,老百姓就拿著盆盆罐罐來接水。假如說救火車在一個居民點停留100分鐘放完了水,然後重新儲水花半個小時,再開往下一個居民點。這樣一個白天來來來回回的,也就是4-5個居民點。

但我們想想,救火車是何等存在,如果把水龍頭完全開啟,其強大的水壓能輕易衝上10層樓以上, 10分鐘就可以把水全部放完。但因為居民是拿盆罐接水,100%開啟水龍頭那就是給人洗澡了,所以只能開啟一小部分(比如10%的流量)。但這樣就降低了放水的效率(只有原來的10%了),10分鐘變100分鐘。

那麼,我們是否能改進這個放水的過程,讓救火車以最高效率放完水、儘快趕往下一個居民點呢?
方法就是:在居民點建蓄水池。
救火車把水放到蓄水池裡,因為是以100%的效率放水,10分鐘結束然後走人。居民再從蓄水池裡一點一點的接水。

我們分析一下這個例子,就可以知道Cache的含義了。
救火車要給居民送水,居民要從救火車接水,就是說居民和救火車之間有互動,有聯絡。
但救火車是"高速裝置",居民是"低速裝置",低速的居民跟不上高速的救火車,所以救火車被迫降低了放水速度以適應居民。
為了避免這種情況,在救火車和居民之間多了一層"蓄水池(也就是Cache)",它一方面以100%的高效和救火車打交道,另一方面以10%的低效和居民打交道,這就解放了救火車,讓其以最高的效率執行,而不被低速的居民拖後腿,於是救火車只需要在一個居民點停留10分鐘就可以了。
所以說,蓄水池是"活雷鋒",把高效留給別人,把低效留給自己。把10分鐘留給救火車,把100分鐘留給自己。

從以上例子可以看出,所謂Cache,就是"為了彌補高速裝置和低速裝置之間的矛盾"而設立的一箇中間層。因為在現實裡經常出現高速裝置要和低速裝置打交道,結果被低速裝置拖後腿的情況。Cache的存在是為了解決什麼問題?速度太慢了,要加快速度!

以PC為例。CPU速度很快,但CPU執行的指令是從記憶體取出的,計算的結果也要寫回記憶體,但記憶體的響應速度跟不上CPU。CPU跟記憶體說:你把某某地址的指令發給我。記憶體聽到了,但因為速度慢,遲遲不見指令返回,這段時間,CPU只能無所事事的等待了。這樣一來,再快的CPU也發揮不了效率。
怎麼辦呢?在CPU和記憶體之間加一塊"蓄水池",也就是Cache(片上快取),這個Cache速度比記憶體快,從Cache取指令不需要等待。當CPU要讀記憶體的指令的時候先讀Cache再讀記憶體,但一開始Cache是空著的,只能從記憶體取,這時候的確是很慢,CPU需要等待。但從記憶體取回的不僅僅是CPU所需要的指令,還有其它的、當前不需要的指令,然後把這些指令存在Cache裡備用。CPU再取指令的時候還是先讀Cache,看看裡面有沒有所需指令,如果碰巧有就直接從Cache取,不用等待即可返回(命中),這就解放了CPU,提高了效率。(當然不會是100%命中,因為Cache的容量比記憶體小)

2)Buffer快取

比如說吐魯番的葡萄熟了,要用大卡車裝葡萄運出去賣果園的姑娘採摘葡萄,當然不是前手把葡萄摘下來,後手就放到卡車上,而是需要一箇中間過程"籮筐":摘葡萄→放到籮筐裡→把籮筐裡的葡萄倒入卡車。也就是說,雖然最終目的是"把葡萄倒入卡車",但中間必須要經過"籮筐"的轉手,這裡的籮筐就是Buffer。是"暫時存放物品的空間"。
注意2個關鍵詞:暫時,空間
再換句話說,為了完成最終目標:把葡萄放入卡車的空間,需要暫時把葡萄放入籮筐的空間。

以BT為例,BT下載需要長時間的掛機,電腦就有可能24小時連軸轉,但BT下載的資料是碎片化的,體現在硬碟寫入上也是碎片化的,因為硬碟是機械定址器件,這種碎片化的寫入會造成硬碟長時間高負荷的機械運動,造成硬碟過早老化損壞,當年有大量的硬碟因為BT下載而損壞。於是新出的BT軟體在記憶體裡開闢了Buffer,資料暫時寫入Buffer,攢到一定的大小(比如512M)再一次性寫入硬碟,這種"化零為整"的寫入方式大大降低了硬碟的負荷。這就是:為了完成最終目標:把資料寫入硬碟空間,需要暫時寫入Buffer的空間。

3)二者之間的區別總結

Cache和Buffer的相同點:都是2個層面之間的中間層,都是記憶體。
Cache和Buffer的不同點:Cache解決的是時間問題,Buffer解決的是空間問題。
為了提高速度,引入了Cache這個中間層。
為了給資訊找到一個暫存空間,引入了Buffer這個中間層。
為了解決2個不同維度的問題(時間、空間),恰巧取了同一種解決方法:加入一箇中間層,先把資料寫到中間層上,然後再寫入目標。
這個中間層就是記憶體“RAM”,既然是儲存器就有2個引數:寫入的速度有多塊(速度),能裝多少東西(容量)
Cache利用的是RAM提供的高讀寫速度,Buffer利用的是RAM提供的儲存容量(空間)。

a)Buffer(緩衝區)是系統兩端處理速度平衡(從長時間尺度上看)時使用的。它的引入是為了減小短期內突發I/O的影響,起到流量整形的作用。比如生產者——消費者問題,他們產生和消耗資源的速度大體接近,加一個buffer可以抵消掉資源剛產生/消耗時的突然變化。
b)Cache(快取)則是系統兩端處理速度不匹配時的一種折衷策略。因為CPU和memory之間的速度差異越來越大,所以人們充分利用資料的區域性性(locality)特徵,通過使用儲存系統分級(memory hierarchy)的策略來減小這種差異帶來的影響。
c)假定以後儲存器訪問變得跟CPU做計算一樣快,cache就可以消失,但是buffer依然存在。比如從網路上下載東西,瞬時速率可能會有較大變化,但從長期來看卻是穩定的,這樣就能通過引入一個buffer使得OS接收資料的速率更穩定,進一步減少對磁碟的傷害。
========================================================

四、手動清理緩

釋放快取區記憶體的方法
1)清理pagecache(頁面快取)
[[email protected] ~]# echo 1 > /proc/sys/vm/drop_caches     或者 # sysctl -w vm.drop_caches=1
 
2)清理dentries(目錄快取)和inodes
[[email protected] ~]# echo 2 > /proc/sys/vm/drop_caches     或者 # sysctl -w vm.drop_caches=2
 
3)清理pagecache、dentries和inodes
[[email protected] ~]# echo 3 > /proc/sys/vm/drop_caches     或者 # sysctl -w vm.drop_caches=3
 
上面三種方式都是臨時釋放快取的方法,要想永久釋放快取,需要在/etc/sysctl.conf檔案中配置:vm.drop_caches=1/2/3,然後sysctl -p生效即可!
 
另外,可以使用sync命令來清理檔案系統快取,還會清理殭屍(zombie)物件和它們佔用的記憶體
[[email protected] ~]# sync
 
 
溫馨提示:
上面操作在大多數情況下都不會對系統造成傷害,只會有助於釋放不用的記憶體。
但是如果在執行這些操作時正在寫資料,那麼實際上在資料到達磁碟之前就將它從檔案快取中清除掉了,這可能會造成很不好的影響。
 
那麼如果避免這種事情發生呢?
因此,這裡不得不提一下/proc/sys/vm/vfs_cache_pressure這個檔案,告訴核心,當清理inoe/dentry快取時應該用什麼樣的優先順序。
[[email protected] ~]# cat /proc/sys/vm/vfs_cache_pressure
100
 
vfs_cache_pressure=100    這個是預設值,核心會嘗試重新宣告dentries和inodes,並採用一種相對於頁面快取和交換快取比較"合理"的比例。
 
減少vfs_cache_pressure的值,會導致核心傾向於保留dentry和inode快取。
增加vfs_cache_pressure的值,(即超過100時),則會導致核心傾向於重新宣告dentries和inodes
  
總之,vfs_cache_pressure的值:
小於100的值不會導致快取的大量減少
超過100的值則會告訴核心你希望以高優先順序來清理快取。
  
其實無論vfs_cache_pressure的值採用什麼值,核心清理快取的速度都是比較低的。
如果將此值設定為10000,系統將會將快取減少到一個合理的水平。
======================================================
 
這裡順便說下自己遇到的一個記憶體問題:
IDC機房有一臺專門的備份伺服器,每天凌晨執行多個備份指令碼。某天早上突然發現收到很多條zabbix監控報警資訊:這臺備份伺服器的記憶體使用了已超過80%!
於是,趕緊登陸這臺備份伺服器,使用free命令檢視記憶體使用情況:
[[email protected] ~]# free -m
             total       used       free     shared    buffers     cached
Mem:         64181      48585      15596          3          2         18
-/+ buffers/cache:      48564      15617
Swap:        32767          0      3276
 
確實發現記憶體使用率已超過80%!但是使用"top"命令檢視,發現此時並沒有什麼程序在佔用記憶體,並且本機是備份伺服器,只有晚上執行備份指令碼,
其他時間都沒有服務程序在跑!於是嘗試手動釋放記憶體:
[[email protected] ~]# echo 1 > /proc/sys/vm/drop_caches
[[email protected] ~]# echo 2 > /proc/sys/vm/drop_caches
[[email protected] ~]# echo 3 > /proc/sys/vm/drop_caches
[[email protected] ~]# sync
 
發現在執行了上面第三條命令後,記憶體才真正被釋放出來了,其他命令都沒有起到效果。