ConcurrentHashMap的JDK1.8實現
今天我們介紹一下ConcurrentHashMap在JDK1.8中的實現。
基本結構
ConcurrentHashMap在1.8中的實現,相比於1.7的版本基本上全部都變掉了。首先,取消了Segment分段鎖的數據結構,取而代之的是數組+鏈表(紅黑樹)的結構。而對於鎖的粒度,調整為對每個數組元素加鎖(Node)。然後是定位節點的hash算法被簡化了,這樣帶來的弊端是Hash沖突會加劇。因此在鏈表節點數量大於8時,會將鏈表轉化為紅黑樹進行存儲。這樣一來,查詢的時間復雜度就會由原先的O(n)變為O(logN)。下面是其基本結構:
相關屬性
- private transient volatile int sizeCtl;
sizeCtl用於table[]的初始化和擴容操作,不同值的代表狀態如下:
- -1:table[]正在初始化。
- -N:表示有N-1個線程正在進行擴容操作。
非負情況:
- 如果table[]未初始化,則表示table需要初始化的大小。
- 如果初始化完成,則表示table[]擴容的閥值,默認是table[]容量的0.75 倍。
- private static finalint DEFAULT_CONCURRENCY_LEVEL = 16;
- DEFAULT_CONCURRENCY_LEVEL:表示默認的並發級別,也就是table[]的默認大小。
- private static final float LOAD_FACTOR = 0.75f;
- LOAD_FACTOR:默認的負載因子。
- static final int TREEIFY_THRESHOLD = 8;
- TREEIFY_THRESHOLD:鏈表轉紅黑樹的閥值,當table[i]下面的鏈表長度大於8時就轉化為紅黑樹結構。
- static final int UNTREEIFY_THRESHOLD = 6;
- UNTREEIFY_THRESHOLD:紅黑樹轉鏈表的閥值,當鏈表長度<=6時轉為鏈表(擴容時)。
構造函數
- public ConcurrentHashMap(int initialCapacity,
- float loadFactor, int concurrencyLevel) {
- if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)
- throw new IllegalArgumentException();
- if (initialCapacity < concurrencyLevel) // 初始化容量至少要為concurrencyLevel
- initialCapacity = concurrencyLevel;
- long size = (long)(1.0 + (long)initialCapacity / loadFactor);
- int cap = (size >= (long)MAXIMUM_CAPACITY) ?
- MAXIMUM_CAPACITY : tableSizeFor((int)size);
- this.sizeCtl = cap;
- }
從上面代碼可以看出,在創建ConcurrentHashMap時,並沒有初始化table[]數組,只對Map容量,並發級別等做了賦值操作。
相關節點
- Node:該類用於構造table[],只讀節點(不提供修改方法)。
- TreeBin:紅黑樹結構。
- TreeNode:紅黑樹節點。
- ForwardingNode:臨時節點(擴容時使用)。
put()操作
- public V put(K key, V value) {
- return putVal(key, value, false);
- }
- final V putVal(K key, V value, boolean onlyIfAbsent) {
- if (key == null || value == null) throw new NullPointerException();
- int hash = spread(key.hashCode());
- int binCount = 0;
- for (Node<K,V>[] tab = table;;) {
- Node<K,V> f; int n, i, fh;
- if (tab == null || (n = tab.length) == 0)// 若table[]未創建,則初始化
- tab = initTable();
- else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {// table[i]後面無節點時,直接創建Node(無鎖操作)
- if (casTabAt(tab, i, null,
- new Node<K,V>(hash, key, value, null)))
- break; // no lock when adding to empty bin
- }
- else if ((fh = f.hash) == MOVED)// 如果當前正在擴容,則幫助擴容並返回最新table[]
- tab = helpTransfer(tab, f);
- else {// 在鏈表或者紅黑樹中追加節點
- V oldVal = null;
- synchronized (f) {// 這裏並沒有使用ReentrantLock,說明synchronized已經足夠優化了
- if (tabAt(tab, i) == f) {
- if (fh >= 0) {// 如果為鏈表結構
- binCount = 1;
- for (Node<K,V> e = f;; ++binCount) {
- K ek;
- if (e.hash == hash &&
- ((ek = e.key) == key ||
- (ek != null && key.equals(ek)))) {// 找到key,替換value
- oldVal = e.val;
- if (!onlyIfAbsent)
- e.val = value;
- break;
- }
- Node<K,V> pred = e;
- if ((e = e.next) == null) {// 在尾部插入Node
- pred.next = new Node<K,V>(hash, key,
- value, null);
- break;
- }
- }
- }
- else if (f instanceof TreeBin) {// 如果為紅黑樹
- Node<K,V> p;
- binCount = 2;
- if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
- value)) != null) {
- oldVal = p.val;
- if (!onlyIfAbsent)
- p.val = value;
- }
- }
- }
- }
- if (binCount != 0) {
- if (binCount >= TREEIFY_THRESHOLD)// 到達閥值,變為紅黑樹結構
- treeifyBin(tab, i);
- if (oldVal != null)
- return oldVal;
- break;
- }
- }
- }
- addCount(1L, binCount);
- return null;
- }
從上面代碼可以看出,put的步驟大致如下:
- 參數校驗。
- 若table[]未創建,則初始化。
- 當table[i]後面無節點時,直接創建Node(無鎖操作)。
- 如果當前正在擴容,則幫助擴容並返回最新table[]。
- 然後在鏈表或者紅黑樹中追加節點。
- 最後還回去判斷是否到達閥值,如到達變為紅黑樹結構。
除了上述步驟以外,還有一點我們留意到的是,代碼中加鎖片段用的是synchronized關鍵字,而不是像1.7中的ReentrantLock。這一點也說明了,synchronized在新版本的JDK中優化的程度和ReentrantLock差不多了。
get()操作
- public V get(Object key) {
- Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
- int h = spread(key.hashCode());// 定位到table[]中的i
- if ((tab = table) != null && (n = tab.length) > 0 &&
- (e = tabAt(tab, (n - 1) & h)) != null) {// 若table[i]存在
- if ((eh = e.hash) == h) {// 比較鏈表頭部
- if ((ek = e.key) == key || (ek != null && key.equals(ek)))
- return e.val;
- }
- else if (eh < 0)// 若為紅黑樹,查找樹
- return (p = e.find(h, key)) != null ? p.val : null;
- while ((e = e.next) != null) {// 循環鏈表查找
- if (e.hash == h &&
- ((ek = e.key) == key || (ek != null && key.equals(ek))))
- return e.val;
- }
- }
- return null;// 未找到
- }
get()方法的流程相對簡單一點,從上面代碼可以看出以下步驟:
- 首先定位到table[]中的i。
- 若table[i]存在,則繼續查找。
- 首先比較鏈表頭部,如果是則返回。
- 然後如果為紅黑樹,查找樹。
- 最後再循環鏈表查找。
從上面步驟可以看出,ConcurrentHashMap的get操作上面並沒有加鎖。所以在多線程操作的過程中,並不能完全的保證一致性。這裏和1.7當中類似,是弱一致性的體現。
size()操作
- // 1.2時加入
- public int size() {
- long n = sumCount();
- return ((n < 0L) ? 0 :
- (n > (long)Integer.MAX_VALUE) ? Integer.MAX_VALUE :
- (int)n);
- }
- // 1.8加入的API
- public long mappingCount() {
- long n = sumCount();
- return (n < 0L) ? 0L : n; // ignore transient negative values
- }
- final long sumCount() {
- CounterCell[] as = counterCells; CounterCell a;
- long sum = baseCount;
- if (as != null) {
- for (int i = 0; i < as.length; ++i) {
- if ((a = as[i]) != null)
- sum += a.value;
- }
- }
- return sum;
- }
從上面代碼可以看出來,JDK1.8中新增了一個mappingCount()的API。這個API與size()不同的就是返回值是Long類型,這樣就不受Integer.MAX_VALUE的大小限制了。
兩個方法都同時調用了,sumCount()方法。對於每個table[i]都有一個CounterCell與之對應,上面方法做了求和之後就返回了。從而可以看出,size()和mappingCount()返回的都是一個估計值。(這一點與JDK1.7裏面的實現不同,1.7裏面使用了加鎖的方式實現。這裏面也可以看出JDK1.8犧牲了精度,來換取更高的效率。)
ConcurrentHashMap的JDK1.8實現