1. 程式人生 > >深入解密比Guava Cache更優秀的快取-Caffeine

深入解密比Guava Cache更優秀的快取-Caffeine

開發十年,就只剩下這套架構體系了! >>>   

1.前言

讀這篇文章之前希望你能好好的閱讀: 你應該知道的快取進化史如何優雅的設計和使用快取? 。這兩篇文章主要從一些實戰上面去介紹如何去使用快取。在這兩篇文章中我都比較推薦Caffeine這款本地快取去代替你的Guava Cache。本篇文章我將介紹Caffeine快取的具體有哪些功能,以及內部的實現原理,讓大家知其然,也要知其所以然。有人會問:我不使用Caffeine這篇文章應該對我沒啥用了,彆著急,在Caffeine中的知識一定會對你在其他程式碼設計方面有很大的幫助。當然在介紹之前還是要貼一下他和其他快取的一些比較圖:

可以看見Caffeine基本從各個維度都是相比於其他快取都高,廢話不多說,首先還是先看看如何使用吧。

1.1如何使用

Caffeine使用比較簡單,API和Guava Cache一致:

public static void main(String[] args) {
        Cache<String, String> cache = Caffeine.newBuilder()
                .expireAfterWrite(1, TimeUnit.SECONDS)
                .expireAfterAccess(1,TimeUnit.SECONDS)
                .maximumSize(10)
                .build();
        cache.put("hello","hello");
    }

2.Caffeine原理簡介

2.1W-TinyLFU

傳統的LFU受時間週期的影響比較大。所以各種LFU的變種出現了,基於時間週期進行衰減,或者在最近某個時間段內的頻率。同樣的LFU也會使用額外空間記錄每一個數據訪問的頻率,即使資料沒有在快取中也需要記錄,所以需要維護的額外空間很大。

可以試想我們對這個維護空間建立一個hashMap,每個資料項都會存在這個hashMap中,當資料量特別大的時候,這個hashMap也會特別大。

再回到LRU,我們的LRU也不是那麼一無是處,LRU可以很好的應對突發流量的情況,因為他不需要累計資料頻率。

所以W-TinyLFU結合了LRU和LFU,以及其他的演算法的一些特點。

2.1.1頻率記錄

首先要說到的就是頻率記錄的問題,我們要實現的目標是利用有限的空間可以記錄隨時間變化的訪問頻率。在W-TinyLFU中使用Count-Min Sketch記錄我們的訪問頻率,而這個也是布隆過濾器的一種變種。如下圖所示: 如果需要記錄一個值,那我們需要通過多種Hash演算法對其進行處理hash,然後在對應的hash演算法的記錄中+1,為什麼需要多種hash演算法呢?由於這是一個壓縮演算法必定會出現衝突,比如我們建立一個Long的陣列,通過計算出每個資料的hash的位置。比如張三和李四,他們兩有可能hash值都是相同,比如都是1那Long[1]這個位置就會增加相應的頻率,張三訪問1萬次,李四訪問1次那Long[1]這個位置就是1萬零1,如果取李四的訪問評率的時候就會取出是1萬零1,但是李四命名只訪問了1次啊,為了解決這個問題,所以用了多個hash演算法可以理解為long[][]二維陣列的一個概念,比如在第一個演算法張三和李四衝突了,但是在第二個,第三個中很大的概率不衝突,比如一個演算法大概有1%的概率衝突,那四個演算法一起衝突的概率是1%的四次方。通過這個模式我們取李四的訪問率的時候取所有演算法中,李四訪問最低頻率的次數。所以他的名字叫Count-Min Sketch。

這裡和以前的做個對比,簡單的舉個例子:如果一個hashMap來記錄這個頻率,如果我有100個數據,那這個HashMap就得儲存100個這個資料的訪問頻率。哪怕我這個快取的容量是1,因為Lfu的規則我必須全部記錄這個100個數據的訪問頻率。如果有更多的資料我就有記錄更多的。

在Count-Min Sketch中,我這裡直接說caffeine中的實現吧(在FrequencySketch這個類中),如果你的快取大小是100,他會生成一個long陣列大小是和100最接近的2的冪的數,也就是128。而這個陣列將會記錄我們的訪問頻率。在caffeine中規定頻率最大為15,15的二進位制位1111,總共是4位,而Long型是64位。所以每個Long型可以放16種演算法,但是caffeine並沒有這麼做,只用了四種hash演算法,每個Long型被分為四段,每段裡面儲存的是四個演算法的頻率。這樣做的好處是可以進一步減少Hash衝突,原先128大小的hash,就變成了128X4。

一個Long的結構如下: 我們的4個段分為A,B,C,D,在後面我也會這麼叫它們。而每個段裡面的四個演算法我叫他s1,s2,s3,s4。下面舉個例子如果要新增一個訪問50的數字頻率應該怎麼做?我們這裡用size=100來舉例。

  1. 首先確定50這個hash是在哪個段裡面,通過hash & 3(3的二進位制是11)必定能獲得小於4的數字,假設hash & 3=0,那就在A段。
  2. 對50的hash再用其他hash演算法再做一次hash,得到long陣列的位置,也就是在長度128陣列中的位置。假設用s1演算法得到1,s2演算法得到3,s3演算法得到4,s4演算法得到0。
  3. 因為S1演算法得到的是1,所以在long[1]的A段裡面的s1位置進行+1,簡稱1As1加1,然後在3As2加1,在4As3加1,在0As4加1。

這個時候有人會質疑頻率最大為15的這個是否太小?沒關係在這個演算法中,比如size等於100,如果他全域性提升了size*10也就是1000次就會全域性除以2衰減,衰減之後也可以繼續增加,這個演算法再W-TinyLFU的論文中證明了其可以較好的適應時間段的訪問頻率。

2.2讀寫效能

在guava cache中我們說過其讀寫操作中夾雜著過期時間的處理,也就是你在一次Put操作中有可能還會做淘汰操作,所以其讀寫效能會受到一定影響,可以看上面的圖中,caffeine的確在讀寫操作上面完爆guava cache。主要是因為在caffeine,對這些事件的操作是通過非同步操作,他將事件提交至佇列,這裡的佇列的資料結構是RingBuffer,不清楚的可以看看這篇文章,你應該知道的高效能無鎖佇列Disruptor。然後會通過預設的ForkJoinPool.commonPool(),或者自己配置執行緒池,進行取佇列操作,然後在進行後續的淘汰,過期操作。

當然讀寫也是有不同的佇列,在caffeine中認為快取讀比寫多很多,所以對於寫操作是所有執行緒共享一個Ringbuffer。

對於讀操作比寫操作更加頻繁,進一步減少競爭,其為每個執行緒配備了一個RingBuffer:

2.3資料淘汰策略

在caffeine所有的資料都在ConcurrentHashMap中,這個和guava cache不同,guava cache是自己實現了個類似ConcurrentHashMap的結構。在caffeine中有三個記錄引用的LRU佇列:

  • Eden佇列:在caffeine中規定只能為快取容量的%1,如果size=100,那這個佇列的有效大小就等於1。這個佇列中記錄的是新到的資料,防止突發流量由於之前沒有訪問頻率,而導致被淘汰。比如有一部新劇上線,在最開始其實是沒有訪問頻率的,防止上線之後被其他快取淘汰出去,而加入這個區域。伊甸區,最舒服最安逸的區域,在這裡很難被其他資料淘汰。

  • Probation佇列:叫做緩刑佇列,在這個佇列就代表你的資料相對比較冷,馬上就要被淘汰了。這個有效大小為size減去eden減去protected。

  • Protected佇列:在這個佇列中,可以稍微放心一下了,你暫時不會被淘汰,但是別急,如果Probation佇列沒有資料了或者Protected資料滿了,你也將會被面臨淘汰的尷尬局面。當然想要變成這個佇列,需要把Probation訪問一次之後,就會提升為Protected佇列。這個有效大小為(size減去eden) X 80% 如果size =100,就會是79。

這三個佇列關係如下:

  1. 所有的新資料都會進入Eden。
  2. Eden滿了,淘汰進入Probation。
  3. 如果在Probation中訪問了其中某個資料,則這個資料升級為Protected。
  4. 如果Protected滿了又會繼續降級為Probation。

對於發生資料淘汰的時候,會從Probation中進行淘汰。會把這個佇列中的資料隊頭稱為受害者,這個隊頭肯定是最早進入的,按照LRU佇列的演算法的話那他其實他就應該被淘汰,但是在這裡只能叫他受害者,這個佇列是緩刑佇列,代表馬上要給他行刑了。這裡會取出隊尾叫候選者,也叫攻擊者。這裡受害者會和攻擊者皇城PK決出我們應該被淘汰的。

通過我們的Count-Min Sketch中的記錄的頻率資料有以下幾個判斷:

  • 如果攻擊者大於受害者,那麼受害者就直接被淘汰。
  • 如果攻擊者<=5,那麼直接淘汰攻擊者。這個邏輯在他的註釋中有解釋: 他認為設定一個預熱的門檻會讓整體命中率更高。
  • 其他情況,隨機淘汰。

3.Caffeine功能剖析

在Caffeine中功能比較多,下面來剖析一下,這些API到底是如何生效的呢?

3.1 百花齊放-Cache工廠

在Caffeine中有個LocalCacheFactory類,他會根據你的配置進行具體Cache的建立。

可以看見他會根據你是否配置了過期時間,remove監聽器等引數,來進行字串的拼裝,最後會根據字串來生成具體的Cache,這裡的Cache太多了,作者的原始碼並沒有直接寫這部分程式碼,而是通過Java Poet進行程式碼的生成:

3.2 轉瞬即逝-過期策略

在Caffeine中分為兩種快取,一個是有界快取,一個是無界快取,無界快取不需要過期並且沒有界限。在有界快取中提供了三個過期API:

  • expireAfterWrite:代表著寫了之後多久過期。
  • expireAfterAccess: 代表著最後一次訪問了之後多久過期。
  • expireAfter:在expireAfter中需要自己實現Expiry介面,這個介面支援create,update,以及access了之後多久過期。注意這個API和前面兩個API是互斥的。這裡和前面兩個API不同的是,需要你告訴快取框架,他應該在具體的某個時間過期,也就是通過前面的重寫create,update,以及access的方法,獲取具體的過期時間。

在Caffeine中有個scheduleDrainBuffers方法,用來進行我們的過期任務的排程,在我們讀寫之後都會對其進行呼叫:

首先他會進行加鎖,如果鎖失敗說明有人已經在執行排程了。他會使用預設的執行緒池ForkJoinPool或者自定義執行緒池,這裡的drainBuffersTask其實是Caffeine中PerformCleanupTask。

在performCleanUp方法中再次進行加鎖,防止其他執行緒進行清理操作。然後我們進入到maintenance方法中:

可以看見裡面有挺多方法的,其他方法稍後再討論,這裡我們重點關注expireEntries(),也就是用來過期的方法:

  • 首先獲取當前時間。
  • 第二步,進行expireAfterAccess的過期:

這裡根據我們的配置evicts()方法為true,所以會從三個佇列都進行過期淘汰,上面已經說過了這三個佇列都是LRU佇列,所以我們的expireAfterAccessEntries方法,只需要把各個佇列的頭結點進行判斷是否訪問過期然後進行剔除即可。

  • 第三步,是expireAfterWrite:

可以看見這裡依賴了一個佇列writeQrderDeque,這個佇列的資料是什麼時候填充的呢?當然也是使用非同步,具體方法在我們上面的draninWriteBuffer中,他會將我們之前放進RingBuffer的Task拿出來執行,其中也包括新增writeQrderDeque。過期的策略很簡單,直接迴圈彈出第一個判斷其是否過期即可。

  • 第四步,進行expireVariableEntries過期:

在上面的方法中我們可以看見,是利用時間輪,來進行過期處理的,時間輪是什麼呢?想必熟悉一些定時任務系統對其並不陌生,他是一個高效的處理定時任務的結構,可以簡單的將其看做是一個多維陣列。在Caffeine中是一個二層時間輪,也就是二維陣列,其一維的資料表示較大的時間維度比如,秒,分,時,天等,其二維的資料表示該時間維度較小的時間維度,比如秒內的某個區間段。當定位到一個TimeWhile[i][j]之後,其資料結構其實是一個連結串列,記錄著我們的Node。在Caffeine利用時間輪記錄我們在某個時間過期的資料,然後去處理。

在Caffeine中的時間輪如上面所示。在我們插入資料的時候,根據我們重寫的方法計算出他應該過期的時間,比如他應該在1536046571142時間過期,上一次處理過期時間是1536046571100,對其相減則得到42ms,然後將其放入時間輪,由於其小於1.07s,所以直接放入1.07s的位置,以及第二層的某個位置(需要經過一定的演算法算出),使用尾插法插入連結串列。

處理過期時間的時候會算出上一次處理的時間和當前處理的時間的差值,需要將其這個時間範圍之內的所有時間輪的時間都進行處理,如果某個Node其實沒有過期,那麼就需要將其重新插入進時間輪。

3.3.除舊佈新-更新策略

Caffeine提供了refreshAfterWrite()方法來讓我們進行寫後多久更新策略:

上面的程式碼我們需要建立一個CacheLodaer來進行重新整理,這裡是同步進行的,可以通過buildAsync方法進行非同步構建。在實際業務中這裡可以把我們程式碼中的mapper傳入進去,進行資料來源的重新整理。

注意這裡的重新整理並不是到期就重新整理,而是對這個資料再次訪問之後,才會重新整理。舉個例子:有個key:'咖啡',value:'拿鐵' 的資料,我們設定1s重新整理,我們在新增資料之後,等待1分鐘,按理說下次訪問時他會重新整理,獲取新的值,可惜並沒有,訪問的時候還是返回'拿鐵'。但是繼續訪問的話就會發現,他已經進行了重新整理了。

我們來看看自動重新整理他是怎麼做的呢?自動重新整理只存在讀操作之後,也就是我們afterRead()這個方法,其中有個方法叫refreshIfNeeded,他會根據你是同步還是非同步然後進行重新整理處理。

3.4 虛虛實實-軟引用和弱引用

在Java中有四種引用型別:強引用(StrongReference)、軟引用(SoftReference)、弱引用(WeakReference)、虛引用(PhantomReference)。

  • 強引用:在我們程式碼中直接宣告一個物件就是強引用。
  • 軟引用:如果一個物件只具有軟引用,如果記憶體空間足夠,垃圾回收器就不會回收它;如果記憶體空間不足了,就會回收這些物件的記憶體。只要垃圾回收器沒有回收它,該物件就可以被程式使用。軟引用可以和一個引用佇列(ReferenceQueue)聯合使用,如果軟引用所引用的物件被垃圾回收器回收,Java虛擬機器就會把這個軟引用加入到與之關聯的引用佇列中。
  • 弱引用:在垃圾回收器執行緒掃描它所管轄的記憶體區域的過程中,一旦發現了只具有弱引用的物件,不管當前記憶體空間足夠與否,都會回收它的記憶體。弱引用可以和一個引用佇列(ReferenceQueue)聯合使用,如果弱引用所引用的物件被垃圾回收,Java虛擬機器就會把這個弱引用加入到與之關聯的引用佇列中。
  • 虛引用:如果一個物件僅持有虛引用,那麼它就和沒有任何引用一樣,在任何時候都可能被垃圾回收器回收。虛引用必須和引用佇列 (ReferenceQueue)聯合使用。當垃圾回收器準備回收一個物件時,如果發現它還有虛引用,就會在回收物件的記憶體之前,把這個虛引用加入到與之 關聯的引用佇列中。

3.4.1弱引用的淘汰策略

在Caffeine中支援弱引用的淘汰策略,其中有兩個api: weakKeys()和weakValues(),用來設定key是弱引用還是value是弱引用。具體原理是在put的時候將key和value用虛引用進行包裝並繫結至引用佇列:

具體回收的時候,在我們前面介紹的maintenance方法中,有兩個方法:

//處理key引用的
drainKeyReferences();
//處理value引用
drainValueReferences();

具體的處理的程式碼有:

因為我們的key已經被回收了,然後他會進入引用佇列,通過這個引用佇列,一直彈出到他為空為止。我們能根據這個佇列中的運用獲取到Node,然後對其進行驅逐。

注意:很多同學以為在快取中內部是儲存的Key-Value的形式,其實儲存的是KeyReference - Node(Node中包含Value)的形式。

3.4.2 軟引用的淘汰策略

在Caffeine中還支援軟引用的淘汰策略,其api是softValues(),軟引用只支援Value不支援Key。我們可以看見在Value的回收策略中有:

和key引用回收相似,但是要說明的是這裡的引用佇列,有可能是軟引用佇列,也有可能是弱引用佇列。

3.5知己知彼-打點監控

在Caffeine中提供了一些的打點監控策略,通過recordStats()Api進行開啟,預設是使用Caffeine自帶的,也可以自己進行實現。 在StatsCounter介面中,定義了需要打點的方法目前來說有如下幾個:

  • recordHits:記錄快取命中
  • recordMisses:記錄快取未命中
  • recordLoadSuccess:記錄載入成功(指的是CacheLoader載入成功)
  • recordLoadFailure:記錄載入失敗
  • recordEviction:記錄淘汰資料

通過上面的監聽,我們可以實時監控快取當前的狀態,以評估快取的健康程度以及快取命中率等,方便後續調整引數。

3.6有始有終-淘汰監聽

有很多時候我們需要知道Caffeine中的快取為什麼被淘汰了呢,從而進行一些優化?這個時候我們就需要一個監聽器,程式碼如下所示:

Cache<String, String> cache = Caffeine.newBuilder()
                .removalListener(((key, value, cause) -> {
                    System.out.println(cause);
                }))
                .build();

在Caffeine中被淘汰的原因有很多種:

  • EXPLICIT: 這個原因是,使用者造成的,通過呼叫remove方法從而進行刪除。
  • REPLACED: 更新的時候,其實相當於把老的value給刪了。
  • COLLECTED: 用於我們的垃圾收集器,也就是我們上面減少的軟引用,弱引用。
  • EXPIRED: 過期淘汰。
  • SIZE: 大小淘汰,當超過最大的時候就會進行淘汰。

當我們進行淘汰的時候就會進行回撥,我們可以打印出日誌,對資料淘汰進行實時監控。

4.最後

本文介紹了Caffeine的全部功能原理,其中的知識點涉及到:LFU,LRU,時間輪,Java的四種引用等等。如果你對Caffeine不感興趣也沒有關係,通過這些知識的介紹相信你也收穫了不少。最後關於快取系列基本也告一段落,如果還想了解更多可以關注我的公眾號,加我好友或者加入技術交流微信群進行討論。

最後這篇文章被我收錄於JGrowing-工具篇,一個全面,優秀,由社群一起共建的Java學習路線,如果您想參與開源專案的維護,可以一起共建,github地址為:https://github.com/javagrowing/JGrowing 麻煩給個小星星喲。

如果你覺得這篇文章對你有文章,可以關注我的技術公眾號,最近作者收集了很多最新的學習資料視訊以及面試資料,關注之後即可領取,你的關注和轉發是對我最大的支援,O(∩_∩)O

相關推薦

深入解密Guava Cache優秀快取-Caffeine

開發十年,就只剩下這套架構體系了! >>>   

深入分散式快取 》第4章Ehcache 與guava cache

一 序    本文屬於《深入分散式快取 》讀書筆記,第一章:快取為王主要介紹快取概念,以及引入快取的背景:提升使用者體驗。還介紹了快取的分類,第二章主要介紹分散式理論。個人覺得第二章可以去掉,畢竟是泛泛的介紹。還是專門去看有主題的書比較好,比如《<從PAXOS

slf4jlog4j優秀的一點是可以使用佔位符

對於log4j來說,使用logger.debug()訊息的時候,如果需要連線字串,則很麻煩,需要類似這樣: private static Logger logger = Logger.getLogger(ExchangeService.class); logger.debug("你好

作為Java程式設計師,怎樣才能別人優秀

1. 不要吝嗇投資自己 和朋友一起搓一頓大概人均幾十或者百把塊錢,基本上我們都很隨意,根本不會覺得這很貴或者很浪費。但是每當我們去買書或者去買一些優質的視訊教程的時候,很多人會覺得很貴,甚至不太願意出這個錢。 的確,技術書籍都很貴,動不動就50-100的,我想說的是什麼呢?永遠不要吝嗇給自己

作為程式設計師,怎樣才能別人優秀

1. 不要吝嗇投資自己 和朋友一起搓一頓大概人均幾十或者百把塊錢,基本上我們都很隨意,根本不會覺得這很貴或者很浪費。但是每當我們去買書或者去買一些優質的視訊教程的時候,很多人會覺得很貴,甚至不太願意出這個錢。 的確,技術書籍都很貴,動不動就50-100的,我想說的是什麼呢?永遠不要吝嗇給自己

3. java快取-程序內快取guava cache

guava cache的快取結構 常用的guava cache快取 根據上圖中的快取框架,我們常用的一些快取例項有:LocalManualCache和LocalLoadingCache,兩者唯一的區別就是LocalLoadingCache extends LocalManu

深入Guava Cache的refresh和expire重新整理機制

Guava Cache是本地快取的不二之選,用起來真不錯呵,可是你真的知道怎麼使用才能滿足需求?今天我們深入探討一下Expire和Refresh。(廢話少說) 一、思考和猜想 首先看一下三種基於時間的清理或重新整理快取資料的方式: expireAfterAccess

Guava Cache快取的使用

TokenCache   --使用Guava Cache的存取Token的快取(手機驗證碼、忘記密碼) public class TokenCache {     private static Log

企業專案開發--本地快取guava cache(1)

此文已由作者趙計剛授權網易雲社群釋出。 歡迎訪問網易雲社群,瞭解更多網易技術產品運營經驗。 1、在實際專案開發中,會使用到很多快取技術,而且資料庫的設計一般也會依賴於有快取的情況下設計。 常用的快取分兩種:本地快取和分散式快取。 常用的本地快取是guava cache,本章主要介紹guava cach

企業專案開發--本地快取guava cache(2)

此文已由作者趙計剛授權網易雲社群釋出。 歡迎訪問網易雲社群,瞭解更多網易技術產品運營經驗。 AdminCacheKey: package com.xxx.vo.userManagement; /**  * guava cache的key  */

Google guava cache原始碼解析1--構建快取器(2)

此文已由作者趙計剛授權網易雲社群釋出。 歡迎訪問網易雲社群,瞭解更多網易技術產品運營經驗。 CacheBuilder-->maximumSize(long size)     /**      * 

同樣是程式設計師,為什麼別人優秀

1. 不要吝嗇投資自己 和朋友一起搓一頓大概人均幾十或者百把塊錢,基本上我們都很隨意,根本不會覺得這很貴或者很浪費。但是每當我們去買書或者去買一些優質的視訊教程的時候,很多人會覺得很貴,甚至不太願意出這個錢。 的確,技術書籍都很貴,動不動就50-100的,我想說的是什麼呢

Google guava cache原始碼解析1--構建快取器(3)

此文已由作者趙計剛授權網易雲社群釋出。 歡迎訪問網易雲社群,瞭解更多網易技術產品運營經驗。 下面介紹在LocalCache(CacheBuilder, CacheLoader)中呼叫的一些方法: CacheBuilder-->getConcurrencyLevel()

Guava Cache快取的回收、重新整理和統計

適用性         快取在很多場景下都是相當有用的。例如,計算或檢索一個值的代價很高,並且對同樣的輸入需要不止一次獲取值的時候,就應當考慮使用快取。         Guava Cache與ConcurrentMap很相似,但也不完全一樣。最基本的區別是Concurre

集中式記憶體快取Guava Cache學習

       本文摘轉自:https://www.jianshu.com/p/64b0df87e51b,還有這篇文章寫的也不錯:http://www.cnblogs.com/peida/p/guava.html,是一個Guava學習系列,通過這幾篇文章的講解,對Guava應該有了一個清晰的認識,不過,實戰中,

Guava Cache本地快取在 Spring Boot應用中的實踐

概述 在如今高併發的網際網路應用中,快取的地位舉足輕重,對提升程式效能幫助不小。而 3.x開始的 Spring也引入了對 Cache的支援,那對於如今發展得如火如荼的 Spring Boot來說自然也是支援快取特性的。當然 Spring Boot預設使用的是 SimpleCacheConfigurati

CheungSSHAnsible優秀的Linux SSH批量管理伺服器 執行命令上傳下載自動化運維工具

安裝部署:   第一步: [ root ~]# yum install -y gcc   第二步:[ root ~]#  yum install -y python-devel   第三步 到官網下載pycrypto模組: wget --no-check-certificate https://pypi.py

第七章 企業專案開發--本地快取guava cache

1、在實際專案開發中,會使用到很多快取技術,而且資料庫的設計一般也會依賴於有快取的情況下設計。 常用的快取分兩種:本地快取和分散式快取。 常用的本地快取是guava cache,本章主要介紹guava cache在專案中的使用。 關於常用快取以及每種快取常用場景的介紹,之後可以去檢視我記錄的"J

同是Java程序員,如何別人優秀

通信 -i 知識付費 算法 計劃 java 互聯網 二叉 還要 序言 隨著互聯網時代的飛速發展,越來越多的人投身於軟件開發行業,大家都稱他們為程序員,或者碼農。 這些程序員的水平也是參差不齊的,有些人從比較好的學校畢業,水平卻一般般;也有些人從一般搬的學校畢業,但是水平很高

Java 高併發快取Guava Cache

一.背景 快取是我們在開發中為了提高系統的效能,把經常的訪問業務的資料第一次把處理結果先放到快取中,第二次就不用在對相同的業務資料在重新處理一遍,這樣就提高了系統的效能。快取分好幾種: (1)本地快取。 (2)資料庫快取。 (3)分散式快取。 分散式快取比較常用的有me