1. 程式人生 > >hibernate二級快取原理分析

hibernate二級快取原理分析

多人對二級快取都不太瞭解,或者是有錯誤的認識,我一直想寫一篇文章介紹一下hibernate的二級快取的,今天終於忍不住了。 
我的經驗主要來自hibernate2.1版本,基本原理和3.0、3.1是一樣的,請原諒我的頑固不化。 

hibernate的session提供了一級快取,每個session,對同一個id進行兩次load,不會發送兩條sql給資料庫,但是session關閉的時候,一級快取就失效了。

二級快取是SessionFactory級別的全域性快取,它底下可以使用不同的快取類庫,比如ehcache、oscache等,需要設定hibernate.cache.provider_class,我們這裡用ehcache,在2.1中就是 
hibernate.cache.provider_class=net.sf.hibernate.cache.EhCacheProvider 
如果使用查詢快取,加上 
hibernate.cache.use_query_cache=true

快取可以簡單的看成一個Map,通過key在快取裡面找value。

Class的快取 
對於一條記錄,也就是一個PO來說,是根據ID來找的,快取的key就是ID,value是POJO。無論list,load還是iterate,只要讀出一個物件,都會填充快取。但是list不會使用快取,而iterate會先取資料庫select id出來,然後一個id一個id的load,如果在快取裡面有,就從快取取,沒有的話就去資料庫load。假設是讀寫快取,需要設定: 
<cache usage="read-write"/> 
如果你使用的二級快取實現是ehcache的話,需要配置ehcache.xml 
<cache name="com.xxx.pojo.Foo" maxElementsInMemory="500" eternal="false" timeToLiveSeconds="7200" timeToIdleSeconds="3600" overflowToDisk="true" /> 
其中eternal表示快取是不是永遠不超時,timeToLiveSeconds是快取中每個元素(這裡也就是一個POJO)的超時時間,如果eternal="false",超過指定的時間,這個元素就被移走了。timeToIdleSeconds是發呆時間,是可選的。當往快取裡面put的元素超過500個時,如果overflowToDisk="true",就會把快取中的部分資料儲存在硬碟上的臨時檔案裡面。 
每個需要快取的class都要這樣配置。如果你沒有配置,hibernate會在啟動的時候警告你,然後使用defaultCache的配置,這樣多個class會共享一個配置。 
當某個ID通過hibernate修改時,hibernate會知道,於是移除快取。 
這樣大家可能會想,同樣的查詢條件,第一次先list,第二次再iterate,就可以使用到快取了。實際上這是很難的,因為你無法判斷什麼時候是第一次,而且每次查詢的條件通常是不一樣的,假如資料庫裡面有100條記錄,id從1到100,第一次list的時候出了前50個id,第二次iterate的時候卻查詢到30至70號id,那麼30-50是從快取裡面取的,51到70是從資料庫取的,共傳送1+20條sql。所以我一直認為iterate沒有什麼用,總是會有1+N的問題。 
(題外話:有說法說大型查詢用list會把整個結果集裝入記憶體,很慢,而iterate只select id比較好,但是大型查詢總是要分頁查的,誰也不會真的把整個結果集裝進來,假如一頁20條的話,iterate共需要執行21條語句,list雖然選擇若干欄位,比iterate第一條select id語句慢一些,但只有一條語句,不裝入整個結果集hibernate還會根據資料庫方言做優化,比如使用mysql的limit,整體看來應該還是list快。) 
如果想要對list或者iterate查詢的結果快取,就要用到查詢快取了

查詢快取 
首先需要配置hibernate.cache.use_query_cache=true 
如果用ehcache,配置ehcache.xml,注意hibernate3.0以後不是net.sf的包名了 
<cache name="net.sf.hibernate.cache.StandardQueryCache" 
maxElementsInMemory="50" eternal="false" timeToIdleSeconds="3600" 
timeToLiveSeconds="7200" overflowToDisk="true"/> 
<cache name="net.sf.hibernate.cache.UpdateTimestampsCache" 
maxElementsInMemory="5000" eternal="true" overflowToDisk="true"/> 
然後 
query.setCacheable(true);//啟用查詢快取 
query.setCacheRegion("myCacheRegion");//指定要使用的cacheRegion,可選 
第二行指定要使用的cacheRegion是myCacheRegion,即你可以給每個查詢快取做一個單獨的配置,使用setCacheRegion來做這個指定,需要在ehcache.xml裡面配置它: 
<cache name="myCacheRegion" maxElementsInMemory="10" eternal="false" timeToIdleSeconds="3600" timeToLiveSeconds="7200" overflowToDisk="true" /> 
如果省略第二行,不設定cacheRegion的話,那麼會使用上面提到的標準查詢快取的配置,也就是net.sf.hibernate.cache.StandardQueryCache

對於查詢快取來說,快取的key是根據hql生成的sql,再加上引數,分頁等資訊(可以通過日誌輸出看到,不過它的輸出不是很可讀,最好改一下它的程式碼)。 
比如hql: 
from Cat c where c.name like ? 
生成大致如下的sql: 
select * from cat c where c.name like ? 
引數是"tiger%",那麼查詢快取的key*大約*是這樣的字串(我是憑記憶寫的,並不精確,不過看了也該明白了): 
select * from cat c where c.name like ? , parameter:tiger% 
這樣,保證了同樣的查詢、同樣的引數等條件下具有一樣的key。 
現在說說快取的value,如果是list方式的話,value在這裡並不是整個結果集,而是查詢出來的這一串ID。也就是說,不管是list方法還是iterate方法,第一次查詢的時候,它們的查詢方式很它們平時的方式是一樣的,list執行一條sql,iterate執行1+N條,多出來的行為是它們填充了快取。但是到同樣條件第二次查詢的時候,就都和iterate的行為一樣了,根據快取的key去快取裡面查到了value,value是一串id,然後在到class的快取裡面去一個一個的load出來。這樣做是為了節約記憶體。 
可以看出來,查詢快取需要開啟相關類的class快取。list和iterate方法第一次執行的時候,都是既填充查詢快取又填充class快取的。 
這裡還有一個很容易被忽視的重要問題,即開啟查詢快取以後,即使是list方法也可能遇到1+N的問題!相同條件第一次list的時候,因為查詢快取中找不到,不管class快取是否存在資料,總是傳送一條sql語句到資料庫獲取全部資料,然後填充查詢快取和class快取。但是第二次執行的時候,問題就來了,如果你的class快取的超時時間比較短,現在class快取都超時了,但是查詢快取還在,那麼list方法在獲取id串以後,將會一個一個去資料庫load!因此,class快取的超時時間一定不能短於查詢快取設定的超時時間!如果還設定了發呆時間的話,保證class快取的發呆時間也大於查詢的快取的生存時間。這裡還有其他情況,比如class快取被程式強制evict了,這種情況就請自己注意了。

另外,如果hql查詢包含select字句,那麼查詢快取裡面的value就是整個結果集了。

當hibernate更新資料庫的時候,它怎麼知道更新哪些查詢快取呢? 
hibernate在一個地方維護每個表的最後更新時間,其實也就是放在上面net.sf.hibernate.cache.UpdateTimestampsCache所指定的快取配置裡面。 
當通過hibernate更新的時候,hibernate會知道這次更新影響了哪些表。然後它更新這些表的最後更新時間。每個快取都有一個生成時間和這個快取所查詢的表,當hibernate查詢一個快取是否存在的時候,如果快取存在,它還要取出快取的生成時間和這個快取所查詢的表,然後去查詢這些表的最後更新時間,如果有一個表在生成時間後更新過了,那麼這個快取是無效的。 
可以看出,只要更新過一個表,那麼凡是涉及到這個表的查詢快取就失效了,因此查詢快取的命中率可能會比較低。

Collection快取 
需要在hbm的collection裡面設定 
<cache usage="read-write"/> 
假如class是Cat,collection叫children,那麼ehcache裡面配置 
<cache name="com.xxx.pojo.Cat.children" 
maxElementsInMemory="20" eternal="false" timeToIdleSeconds="3600" timeToLiveSeconds="7200" 
overflowToDisk="true" /> 
Collection的快取和前面查詢快取的list一樣,也是隻保持一串id,但它不會因為這個表更新過就失效,一個collection快取僅在這個collection裡面的元素有增刪時才失效。 
這樣有一個問題,如果你的collection是根據某個欄位排序的,當其中一個元素更新了該欄位時,導致順序改變時,collection快取裡面的順序沒有做更新。

快取策略 
只讀快取(read-only):沒有什麼好說的 
讀/寫快取(read-write):程式可能要的更新資料 
不嚴格的讀/寫快取(nonstrict-read-write):需要更新資料,但是兩個事務更新同一條記錄的可能性很小,效能比讀寫快取好 
事務快取(transactional):快取支援事務,發生異常的時候,快取也能夠回滾,只支援jta環境,這個我沒有怎麼研究過

讀寫快取和不嚴格讀寫快取在實現上的區別在於,讀寫快取更新快取的時候會把快取裡面的資料換成一個鎖,其他事務如果去取相應的快取資料,發現被鎖住了,然後就直接取資料庫查詢。 
在hibernate2.1的ehcache實現中,如果鎖住部分快取的事務發生了異常,那麼快取會一直被鎖住,直到60秒後超時。 
不嚴格讀寫快取不鎖定快取中的資料。

使用二級快取的前置條件 
你的hibernate程式對資料庫有獨佔的寫訪問權,其他的程序更新了資料庫,hibernate是不可能知道的。你操作資料庫必需直接通過hibernate,如果你呼叫儲存過程,或者自己使用jdbc更新資料庫,hibernate也是不知道的。hibernate3.0的大批量更新和刪除是不更新二級快取的,但是據說3.1已經解決了這個問題。 
這個限制相當的棘手,有時候hibernate做批量更新、刪除很慢,但是你卻不能自己寫jdbc來優化,很鬱悶吧。 
SessionFactory也提供了移除快取的方法,你一定要自己寫一些JDBC的話,可以呼叫這些方法移除快取,這些方法是: 
void evict(Class persistentClass) 
Evict all entries from the second-level cache. 
void evict(Class persistentClass, Serializable id) 
Evict an entry from the second-level cache. 
void evictCollection(String roleName) 
Evict all entries from the second-level cache. 
void evictCollection(String roleName, Serializable id) 
Evict an entry from the second-level cache. 
void evictQueries() 
Evict any query result sets cached in the default query cache region. 
void evictQueries(String cacheRegion) 
Evict any query result sets cached in the named query cache region. 
不過我不建議這樣做,因為這樣很難維護。比如你現在用JDBC批量更新了某個表,有3個查詢快取會用到這個表,用evictQueries(String cacheRegion)移除了3個查詢快取,然後用evict(Class persistentClass)移除了class快取,看上去好像完整了。不過哪天你添加了一個相關查詢快取,可能會忘記更新這裡的移除程式碼。如果你的jdbc程式碼到處都是,在你新增一個查詢快取的時候,還知道其他什麼地方也要做相應的改動嗎