1. 程式人生 > >JDK 1.8 ConcurrentHashMap 原始碼剖析

JDK 1.8 ConcurrentHashMap 原始碼剖析

轉載兩篇不錯的文章:

第一篇:

前言

HashMap是我們平時開發過程中用的比較多的集合,但它是非執行緒安全的,在涉及到多執行緒併發的情況,進行put操作有可能會引起死迴圈,導致CPU利用率接近100%。

final HashMap<String, String> map = new HashMap<String, String>(2);
for (int i = 0; i < 10000; i++) {
    new Thread(new Runnable() {
        @Override
        public void run() {
            map.put(UUID.randomUUID().toString(), "");
        }
    }).start();
}


解決方案有Hashtable和Collections.synchronizedMap(hashMap),不過這兩個方案基本上是對讀寫進行加鎖操作,一個執行緒在讀寫元素,其餘執行緒必須等待,效能可想而知。

所以,Doug Lea給我們帶來了併發安全的ConcurrentHashMap,它的實現是依賴於 Java 記憶體模型,所以我們在瞭解 ConcurrentHashMap 的之前必須瞭解一些底層的知識:

本文原始碼是JDK8的版本,與之前的版本有較大差異。

JDK1.6分析

ConcurrentHashMap採用 分段鎖的機制,實現併發的更新操作,底層採用陣列+連結串列+紅黑樹的儲存結構。
其包含兩個核心靜態內部類 Segment和HashEntry。

  1. Segment繼承ReentrantLock用來充當鎖的角色,每個 Segment 物件守護每個雜湊對映表的若干個桶。
  2. HashEntry 用來封裝對映表的鍵 / 值對;
  3. 每個桶是由若干個 HashEntry 物件連結起來的連結串列。

一個 ConcurrentHashMap 例項中包含由若干個 Segment 物件組成的陣列,下面我們通過一個圖來演示一下 ConcurrentHashMap 的結構:


ConcurrentHashMap儲存結構.png

JDK1.8分析

1.8的實現已經拋棄了Segment分段鎖機制,利用CAS+Synchronized來保證併發更新的安全,底層依然採用陣列+連結串列+紅黑樹的儲存結構。


Paste_Image.png

重要概念

在開始之前,有些重要的概念需要介紹一下:

  1. table:預設為null,初始化發生在第一次插入操作,預設大小為16的陣列,用來儲存Node節點資料,擴容時大小總是2的冪次方。
  2. nextTable:預設為null,擴容時新生成的陣列,其大小為原陣列的兩倍。
  3. sizeCtl :預設為0,用來控制table的初始化和擴容操作,具體應用在後續會體現出來。
    • -1 代表table正在初始化
    • -N 表示有N-1個執行緒正在進行擴容操作
    • 其餘情況:
      1、如果table未初始化,表示table需要初始化的大小。
      2、如果table初始化完成,表示table的容量,預設是table大小的0.75倍,居然用這個公式算0.75(n - (n >>> 2))。
  4. Node:儲存key,value及key的hash值的資料結構。
    class Node<K,V> implements Map.Entry<K,V> {
      final int hash;
      final K key;
      volatile V val;
      volatile Node<K,V> next;
      ... 省略部分程式碼
    }


    其中value和next都用volatile修飾,保證併發的可見性。
  5. ForwardingNode:一個特殊的Node節點,hash值為-1,其中儲存nextTable的引用。
    final class ForwardingNode<K,V> extends Node<K,V> {
      final Node<K,V>[] nextTable;
      ForwardingNode(Node<K,V>[] tab) {
          super(MOVED, null, null, null);
          this.nextTable = tab;
      }
    }


  6. 只有table發生擴容的時候,ForwardingNode才會發揮作用,作為一個佔位符放在table中表示當前節點為null或則已經被移動。

例項初始化

例項化ConcurrentHashMap時帶引數時,會根據引數調整table的大小,假設引數為100,最終會調整成256,確保table的大小總是2的冪次方,演算法如下:

ConcurrentHashMap<String, String> hashMap = new ConcurrentHashMap<>(100);
private static final int tableSizeFor(int c) {
    int n = c - 1;
    n |= n >>> 1;
    n |= n >>> 2;
    n |= n >>> 4;
    n |= n >>> 8;
    n |= n >>> 16;
    return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}


注意,ConcurrentHashMap在建構函式中只會初始化sizeCtl值,並不會直接初始化table,而是延緩到第一次put操作。

table初始化

前面已經提到過,table初始化操作會延緩到第一次put行為。但是put是可以併發執行的,Doug Lea是如何實現table只初始化一次的?讓我們來看看原始碼的實現。

private final Node<K,V>[] initTable() {
    Node<K,V>[] tab; int sc;
    while ((tab = table) == null || tab.length == 0) {
//如果一個執行緒發現sizeCtl<0,意味著另外的執行緒執行CAS操作成功,當前執行緒只需要讓出cpu時間片
        if ((sc = sizeCtl) < 0) 
            Thread.yield(); // lost initialization race; just spin
        else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
            try {
                if ((tab = table) == null || tab.length == 0) {
                    int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                    @SuppressWarnings("unchecked")
                    Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                    table = tab = nt;
                    sc = n - (n >>> 2);
                }
            } finally {
                sizeCtl = sc;
            }
            break;
        }
    }
    return tab;
}


sizeCtl預設為0,如果ConcurrentHashMap例項化時有傳引數,sizeCtl會是一個2的冪次方的值。所以執行第一次put操作的執行緒會執行Unsafe.compareAndSwapInt方法修改sizeCtl為-1,有且只有一個執行緒能夠修改成功,其它執行緒通過Thread.yield()讓出CPU時間片等待table初始化完成。

put操作

假設table已經初始化完成,put操作採用CAS+synchronized實現併發插入或更新操作,具體實現如下。

final V putVal(K key, V value, boolean onlyIfAbsent) {
    if (key == null || value == null) throw new NullPointerException();
    int hash = spread(key.hashCode());
    int binCount = 0;
    for (Node<K,V>[] tab = table;;) {
        Node<K,V> f; int n, i, fh;
        if (tab == null || (n = tab.length) == 0)
            tab = initTable();
        else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
            if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value, null)))
                break;                   // no lock when adding to empty bin
        }
        else if ((fh = f.hash) == MOVED)
            tab = helpTransfer(tab, f);
        ...省略部分程式碼
    }
    addCount(1L, binCount);
    return null;
}


  1. hash演算法
    static final int spread(int h) {return (h ^ (h >>> 16)) & HASH_BITS;}
  2. table中定位索引位置,n是table的大小
    int index = (n - 1) & hash
  3. 獲取table中對應索引的元素f。
    Doug Lea採用Unsafe.getObjectVolatile來獲取,也許有人質疑,直接table[index]不可以麼,為什麼要這麼複雜?
    在java記憶體模型中,我們已經知道每個執行緒都有一個工作記憶體,裡面儲存著table的副本,雖然table是volatile修飾的,但不能保證執行緒每次都拿到table中的最新元素,Unsafe.getObjectVolatile可以直接獲取指定記憶體的資料,保證了每次拿到資料都是最新的。
  4. 如果f為null,說明table中這個位置第一次插入元素,利用Unsafe.compareAndSwapObject方法插入Node節點。
    • 如果CAS成功,說明Node節點已經插入,隨後addCount(1L, binCount)方法會檢查當前容量是否需要進行擴容。
    • 如果CAS失敗,說明有其它執行緒提前插入了節點,自旋重新嘗試在這個位置插入節點。
  5. 如果f的hash值為-1,說明當前f是ForwardingNode節點,意味有其它執行緒正在擴容,則一起進行擴容操作。
  6. 其餘情況把新的Node節點按連結串列或紅黑樹的方式插入到合適的位置,這個過程採用同步內建鎖實現併發,程式碼如下:
    synchronized (f) {
     if (tabAt(tab, i) == f) {
         if (fh >= 0) {
             binCount = 1;
             for (Node<K,V> e = f;; ++binCount) {
                 K ek;
                 if (e.hash == hash &&
                     ((ek = e.key) == key ||
                      (ek != null && key.equals(ek)))) {
                     oldVal = e.val;
                     if (!onlyIfAbsent)
                         e.val = value;
                     break;
                 }
                 Node<K,V> pred = e;
                 if ((e = e.next) == null) {
                     pred.next = new Node<K,V>(hash, key,
                                               value, null);
                     break;
                 }
             }
         }
         else if (f instanceof TreeBin) {
             Node<K,V> p;
             binCount = 2;
             if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                            value)) != null) {
                 oldVal = p.val;
                 if (!onlyIfAbsent)
                     p.val = value;
             }
         }
     }
    }

    在節點f上進行同步,節點插入之前,再次利用tabAt(tab, i) == f判斷,防止被其它執行緒修改。
    1. 如果f.hash >= 0,說明f是連結串列結構的頭結點,遍歷連結串列,如果找到對應的node節點,則修改value,否則在連結串列尾部加入節點。
    2. 如果f是TreeBin型別節點,說明f是紅黑樹根節點,則在樹結構上遍歷元素,更新或增加節點。
    3. 如果連結串列中節點數binCount >= TREEIFY_THRESHOLD(預設是8),則把連結串列轉化為紅黑樹結構。

table擴容

當table容量不足的時候,即table的元素數量達到容量閾值sizeCtl,需要對table進行擴容。
整個擴容分為兩部分:

  1. 構建一個nextTable,大小為table的兩倍。
  2. 把table的資料複製到nextTable中。

這兩個過程在單執行緒下實現很簡單,但是ConcurrentHashMap是支援併發插入的,擴容操作自然也會有併發的出現,這種情況下,第二步可以支援節點的併發複製,這樣效能自然提升不少,但實現的複雜度也上升了一個臺階。

先看第一步,構建nextTable,毫無疑問,這個過程只能只有單個執行緒進行nextTable的初始化,具體實現如下:

private final void addCount(long x, int check) {
    ... 省略部分程式碼
    if (check >= 0) {
        Node<K,V>[] tab, nt; int n, sc;
        while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
               (n = tab.length) < MAXIMUM_CAPACITY) {
            int rs = resizeStamp(n);
            if (sc < 0) {
                if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                    sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                    transferIndex <= 0)
                    break;
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                    transfer(tab, nt);
            }
            else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                         (rs << RESIZE_STAMP_SHIFT) + 2))
                transfer(tab, null);
            s = sumCount();
        }
    }
}


通過Unsafe.compareAndSwapInt修改sizeCtl值,保證只有一個執行緒能夠初始化nextTable,擴容後的陣列長度為原來的兩倍,但是容量是原來的1.5。

節點從table移動到nextTable,大體思想是遍歷、複製的過程。

  1. 首先根據運算得到需要遍歷的次數i,然後利用tabAt方法獲得i位置的元素f,初始化一個forwardNode例項fwd。
  2. 如果f == null,則在table中的i位置放入fwd,這個過程是採用Unsafe.compareAndSwapObjectf方法實現的,很巧妙的實現了節點的併發移動。
  3. 如果f是連結串列的頭節點,就構造一個反序連結串列,把他們分別放在nextTable的i和i+n的位置上,移動完成,採用Unsafe.putObjectVolatile方法給table原位置賦值fwd。
  4. 如果f是TreeBin節點,也做一個反序處理,並判斷是否需要untreeify,把處理的結果分別放在nextTable的i和i+n的位置上,移動完成,同樣採用Unsafe.putObjectVolatile方法給table原位置賦值fwd。

遍歷過所有的節點以後就完成了複製工作,把table指向nextTable,並更新sizeCtl為新陣列大小的0.75倍 ,擴容完成。

紅黑樹構造

注意:如果連結串列結構中元素超過TREEIFY_THRESHOLD閾值,預設為8個,則把連結串列轉化為紅黑樹,提高遍歷查詢效率。

if (binCount != 0) {
    if (binCount >= TREEIFY_THRESHOLD)
        treeifyBin(tab, i);
    if (oldVal != null)
        return oldVal;
    break;
}

接下來我們看看如何構造樹結構,程式碼如下:

private final void treeifyBin(Node<K,V>[] tab, int index) {
    Node<K,V> b; int n, sc;
    if (tab != null) {
        if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
            tryPresize(n << 1);
        else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
            synchronized (b) {
                if (tabAt(tab, index) == b) {
                    TreeNode<K,V> hd = null, tl = null;
                    for (Node<K,V> e = b; e != null; e = e.next) {
                        TreeNode<K,V> p =
                            new TreeNode<K,V>(e.hash, e.key, e.val,
                                              null, null);
                        if ((p.prev = tl) == null)
                            hd = p;
                        else
                            tl.next = p;
                        tl = p;
                    }
                    setTabAt(tab, index, new TreeBin<K,V>(hd));
                }
            }
        }
    }
}


可以看出,生成樹節點的程式碼塊是同步的,進入同步程式碼塊之後,再次驗證table中index位置元素是否被修改過。
1、根據table中index位置Node連結串列,重新生成一個hd為頭結點的TreeNode連結串列。
2、根據hd頭結點,生成TreeBin樹結構,並把樹結構的root節點寫到table的index位置的記憶體中,具體實現如下:

TreeBin(TreeNode<K,V> b) {
    super(TREEBIN, null, null, null);
    this.first = b;
    TreeNode<K,V> r = null;
    for (TreeNode<K,V> x = b, next; x != null; x = next) {
        next = (TreeNode<K,V>)x.next;
        x.left = x.right = null;
        if (r == null) {
            x.parent = null;
            x.red = false;
            r = x;
        }
        else {
            K k = x.key;
            int h = x.hash;
            Class<?> kc = null;
            for (TreeNode<K,V> p = r;;) {
                int dir, ph;
                K pk = p.key;
                if ((ph = p.hash) > h)
                    dir = -1;
                else if (ph < h)
                    dir = 1;
                else if ((kc == null &&
                          (kc = comparableClassFor(k)) == null) ||
                         (dir = compareComparables(kc, k, pk)) == 0)
                    dir = tieBreakOrder(k, pk);
                    TreeNode<K,V> xp = p;
                if ((p = (dir <= 0) ? p.left : p.right) == null) {
                    x.parent = xp;
                    if (dir <= 0)
                        xp.left = x;
                    else
                        xp.right = x;
                    r = balanceInsertion(r, x);
                    break;
                }
            }
        }
    }
    this.root = r;
    assert checkInvariants(root);
}

主要根據Node節點的hash值大小構建二叉樹。這個紅黑樹的構造過程實在有點複雜,感興趣的同學可以看看原始碼。

get操作

get操作和put操作相比,顯得簡單了許多。

public V get(Object key) {
    Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
    int h = spread(key.hashCode());
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (e = tabAt(tab, (n - 1) & h)) != null) {
        if ((eh = e.hash) == h) {
            if ((ek = e.key) == key || (ek != null && key.equals(ek)))
                return e.val;
        }
        else if (eh < 0)
            return (p = e.find(h, key)) != null ? p.val : null;
        while ((e = e.next) != null) {
            if (e.hash == h &&
                ((ek = e.key) == key || (ek != null && key.equals(ek))))
                return e.val;
        }
    }
    return null;
}

總結

ConcurrentHashMap 是一個併發雜湊對映表的實現,它允許完全併發的讀取,並且支援給定數量的併發更新。相比於 HashTable 和同步包裝器包裝的 HashMap,使用一個全域性的鎖來同步不同執行緒間的併發訪問,同一時間點,只能有一個執行緒持有鎖,也就是說在同一時間點,只能有一個執行緒能訪問容器,這雖然保證多執行緒間的安全併發訪問,但同時也導致對容器的訪問變成序列化的了。
1.6中採用ReentrantLock 分段鎖的方式,使多個執行緒在不同的segment上進行寫操作不會發現阻塞行為;1.8中直接採用了內建鎖synchronized,難道是因為1.8的虛擬機器對內建鎖已經優化的足夠快了?

第二篇

本文首寫於有道雲筆記,並在小組分享會分享,先整理髮布,希望和大家交流探討。雲筆記地址

概述: 1、設計首要目的:維護併發可讀性(get、迭代相關);次要目的:使空間消耗比HashMap相同或更好,且支援多執行緒高效率的初始插入(empty table)。 2、HashTable執行緒安全,但採用synchronized,多執行緒下效率低下。執行緒1put時,執行緒2無法put或get。 實現原理: 鎖分離:         在HashMap的基礎上,將資料分段儲存,ConcurrentHashMap由多個Segment組成,每個Segment都有把鎖。Segment下包含很多Node,也就是我們的鍵值對了。 如果還停留在鎖分離、Segment,那已經out了。 Segment雖保留,但已經簡化屬性,僅僅是為了相容舊版本。
  • CAS演算法unsafe.compareAndSwapInt(this, valueOffset, expect, update);  CAS(Compare And Swap),意思是如果valueOffset位置包含的值與expect值相同,則更新valueOffset位置的值為update,並返回true,否則不更新,返回false。
  • 與Java8的HashMap有相通之處,底層依然由“陣列”+連結串列+紅黑樹
  • 底層結構存放的是TreeBin物件,而不是TreeNode物件;
  • CAS作為知名無鎖演算法,那ConcurrentHashMap就沒用鎖了麼?當然不是,hash值相同的連結串列的頭結點還是會synchronized上鎖。 

private static final int MAXIMUM_CAPACITY = 1 << 30; // 2的30次方=1073741824

private static final intDEFAULT_CAPACITY = 16;

static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8; // MAX_VALUE=2^31-1=2147483647

private static finalint DEFAULT_CONCURRENCY_LEVEL = 16;

private static final float LOAD_FACTOR = 0.75f;

static final int TREEIFY_THRESHOLD = 8; // 連結串列轉樹閥值,大於8時

static final int UNTREEIFY_THRESHOLD = 6; //樹轉連結串列閥值,小於等於6(tranfer時,lc、hc=0兩個計數器分別++記錄原bin、新binTreeNode數量,<=UNTREEIFY_THRESHOLD 則untreeify(lo))。【僅在擴容tranfer時才可能樹轉連結串列】

static final int MIN_TREEIFY_CAPACITY = 64;

private static final int MIN_TRANSFER_STRIDE = 16;

private static int RESIZE_STAMP_BITS = 16;

private static final int MAX_RESIZERS = (1 << (32 - RESIZE_STAMP_BITS)) - 1; // 2^15-1,help resize的最大執行緒數

private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS; // 32-16=16,sizeCtl中記錄size大小的偏移量

static final int MOVED     = -1; // hash for forwarding nodes(forwarding nodes的hash值)、標示位

static final int TREEBIN   = -2; // hash for roots of trees(樹根節點的hash值)

static final int RESERVED  = -3; // hash for transient reservations(ReservationNode的hash值)

static final int HASH_BITS = 0x7fffffff; // usable bits of normal node hash

static final int NCPU = Runtime.getRuntime().availableProcessors(); // 可用處理器數量

 /**

    * Table initialization and resizing control.  When negative, the

    * table is being initialized or resized: -1 for initialization,

    * else -(1 + the number of active resizing threads).  Otherwise,

    * when table is null, holds the initial table size to use upon

    * creation, or 0 for default. After initialization, holds the

    * next element count value upon which to resize the table.

    */

private transient volatile int sizeCtl;

sizeCtl是控制識別符號,不同的值表示不同的意義。

    負數代表正在進行初始化或擴容操作 
    -1代表正在初始化 
    -N 表示有N-1個執行緒正在進行擴容操作 
    正數或0代表hash表還沒有被初始化,這個數值表示初始化或下一次進行擴容的大小,類似於擴容閾值。它的值始終是當前ConcurrentHashMap容量的0.75倍,這與loadfactor是對應的。實際容量>=sizeCtl,則擴容。


部分建構函式:
  1. public ConcurrentHashMap(int initialCapacity,  
  2.                              float loadFactor, int concurrencyLevel) {  
  3.   if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)  
  4.             thrownew IllegalArgumentException();  
  5.   if (initialCapacity < concurrencyLevel)   // Use at least as many bins
  6.             initialCapacity = concurrencyLevel;   // as estimated threads
  7.   long size = (long)(1.0 + (long)initialCapacity / loadFactor);  
  8.   int cap = (size >= (long)MAXIMUM_CAPACITY) ?  
  9.             MAXIMUM_CAPACITY : tableSizeFor((int)size);  
  10.   this.sizeCtl = cap;  
  11. }  

concurrencyLevel         concurrencyLevel,能夠同時更新ConccurentHashMap且不產生鎖競爭的最大執行緒數,在Java8之前實際上就是ConcurrentHashMap中的分段鎖個數,即Segment[]的陣列長度正確地估計很重要,當低估,資料結構將根據額外的競爭,從而導致執行緒試圖寫入當前鎖定的段時阻塞;相反,如果高估了併發級別,你遇到過大的膨脹,由於段的不必要的數量; 這種膨脹可能會導致效能下降,由於高數快取未命中。         在Java8裡,僅僅是為了相容舊版本而保留。唯一的作用就是保證構造map時初始容量不小於concurrencyLevel。 原始碼122行: Also, for compatibility with previous  versions of this class, constructors may optionally specify an  expected {@code concurrencyLevel} as an additional hint for  internal sizing.  原始碼482行:  Mainly: We  leave untouched but unused constructor arguments refering to  concurrencyLevel .……         …… 1、重要屬性: 1.1 Node:
  1. staticclass Node<K,V> implements Map.Entry<K,V> {  
  2.         finalint hash;  
  3.         final K key;  
  4.         volatile V val; // Java8增加volatile,保證可見性
  5.         volatile Node<K,V> next;  
  6.         Node(inthash, K key, V val, Node<K,V> next) {  
  7.             this.hash = hash;  
  8.             this.key = key;  
  9.             this.val = val;  
  10.             this.next = next;  
  11.         }  
  12.         publicfinal K getKey()       { return key; }  
  13.         publicfinal V getValue()     { return val; }  
  14.         // HashMap呼叫Objects.hashCode(),最終也是呼叫Object.hashCode();效果一樣
  15.         publicfinalint hashCode()   { returnkey.hashCode() ^ val.hashCode(); }  
  16.         publicfinal String toString(){ returnkey + "=" + val; }  
  17.         publicfinal V setValue(V value) { // 不允許修改value值,HashMap允許
  18.             thrownew UnsupportedOperationException();  
  19.         }  
  20.         // HashMap使用if (o == this),且巢狀if;concurrent使用&&
  21.         publicfinalboolean equals(Object o) {  
  22.             Object k, v, u; Map.Entry<?,?> e;  
  23.             return ((oinstanceof Map.Entry) &&  
  24.                     (k = (e = (Map.Entry<?,?>)o).getKey()) != null &&  
  25.                     (v = e.getValue()) != null &&  
  26.                     (k == key || k.equals(key)) &&  
  27.                     (v == (u = val) || v.equals(u)));  
  28.         }  
  29.         /** 
  30.          * Virtualized support for map.get(); overridden in subclasses. 
  31.          */
  32.         Node<K,V> find(inth, Object k) { // 增加find方法輔助get方法
  33.             Node<K,V> e = this;  
  34.             if (k != null) {  
  35.                 do {  
  36.                     K ek;  
  37.                     if (e.hash == h &&  
  38.                         ((ek = e.key) == k || (ek != null && k.equals(ek))))  
  39.                         returne;  
  40.                 } while ((e = e.next) != null);  
  41.             }  
  42.             returnnull;  
  43.         }  
  44.     }  
1.2 TreeNode
  1. // Nodes for use in TreeBins,連結串列>8,才可能轉為TreeNode.
  2. // HashMap的TreeNode繼承至LinkedHashMap.Entry;而這裡繼承至自己實現的Node,將帶有next指標,便於treebin訪問。
  3.     staticfinalclass TreeNode<K,V> extends Node<K,V> {   
  4.         TreeNode<K,V> parent;  // red-black tree links
  5.         TreeNode<K,V> left;  
  6.         TreeNode<K,V> right;  
  7.         TreeNode<K,V> prev;    // needed to unlink next upon deletion
  8.         boolean red;  
  9.         TreeNode(inthash, K key, V val, Node<K,V> next,  
  10.                  TreeNode<K,V> parent) {  
  11.             super(hash, key, val, next);  
  12.             this.parent = parent;  
  13.         }  
  14.         Node<K,V> find(inth, Object k) {  
  15.             return findTreeNode(h, k, null);  
  16.         }  
  17.         /** 
  18.          * Returns the TreeNode (or null if not found) for the given key 
  19.          * starting at given root. 
  20.          */// 查詢hash為h,key為k的節點
  21.         final TreeNode<K,V> findTreeNode(int h, Object k, Class<?> kc) {  
  22.             if (k != null) { // 比HMap增加判空
  23.                 TreeNode<K,V> p = this;  
  24.                 do  {  
  25.                     intph, dir; K pk; TreeNode<K,V> q;  
  26.                     TreeNode<K,V> pl = p.left, pr = p.right;  
  27.                     if ((ph = p.hash) > h)  
  28.                         p = pl;  
  29.                     elseif (ph < h)  
  30.                         p = pr;  
  31.                     elseif ((pk = p.key) == k || (pk != null && k.equals(pk)))  
  32.                         returnp;  
  33.                     elseif (pl == null)  
  34.                         p = pr;  
  35.                     elseif (pr == null)  
  36.                         p = pl;  
  37.                     elseif ((kc != null ||  
  38.                               (kc = comparableClassFor(k)) != null) &&  
  39.                              (dir = compareComparables(kc, k, pk)) != 0)  
  40.                         p = (dir < 0) ? pl : pr;  
  41.                     elseif ((q = pr.findTreeNode(h, k, kc)) != null)  
  42.                         returnq;  
  43.                     else
  44.                         p = pl;  
  45.                 } while (p != null);  
  46.             }  
  47.             returnnull;  
  48.         }  
  49.     }  
  50. // 和HashMap相比,這裡的TreeNode相當簡潔;ConcurrentHashMap連結串列轉樹時,並不會直接轉,正如註釋(Nodes for use in TreeBins)所說,只是把這些節點包裝成TreeNode放到TreeBin中,再由TreeBin來轉化紅黑樹。

1.3 TreeBin

  1. // TreeBin用於封裝維護TreeNode,包含putTreeVal、lookRoot、UNlookRoot、remove、balanceInsetion、balanceDeletion等方法,這裡只分析其建構函式。
  2. // 當連結串列轉樹時,用於封裝TreeNode,也就是說,ConcurrentHashMap的紅黑樹存放的時TreeBin,而不是treeNode。
  3. TreeBin(TreeNode<K,V> b) {  
  4.     super(TREEBIN, nullnullnull);//hash值為常量TREEBIN=-2,表示roots of trees
  5.     this.first = b;  
  6.     TreeNode<K,V> r = null;  
  7.     for (TreeNode<K,V> x = b, next; x != null; x = next) {  
  8.         next = (TreeNode<K,V>)x.next;  
  9.         x.left = x.right = null;  
  10.         if (r == null) {  
  11.             x.parent = null;  
  12.             x.red = false;  
  13.             r = x;  
  14.         }  
  15.         else {  
  16.             K k = x.key;  
  17.             inth = x.hash;  
  18.             Class<?> kc = null;  
  19.             for (TreeNode<K,V> p = r;;) {  
  20.                 intdir, ph;  
  21.                 K pk = p.key;  
  22.                 if ((ph = p.hash) > h)  
  23.                     dir = -1;  
  24.                 elseif (ph < h)  
  25.                     dir = 1;  
  26.                 elseif ((kc == null &&  
  27.                           (kc = comparableClassFor(k)) == null) ||  
  28.                          (dir = compareComparables(kc, k, pk)) == 0)  
  29.                     dir = tieBreakOrder(k, pk);  
  30.                     TreeNode<K,V> xp = p;  
  31.                 if ((p = (dir <= 0) ? p.left : p.right) == null) {  
  32.                     x.parent = xp;  
  33.                     if (dir <= 0)  
  34.                         xp.left = x;  
  35.                     else
  36.                         xp.right = x;  
  37.                     r = balanceInsertion(r, x);  
  38.                     break;  
  39.                 }  
  40.             }  
  41.         }  
  42.     }  
  43.     this.root = r;  
  44.     assert checkInvariants(root);  
  45. }  

1.4 treeifyBin
  1. /** 
  2. * Replaces all linked nodes in bin at given index unless table is 
  3. * too small, in which case resizes instead.連結串列轉樹 
  4. */
  5. privatefinalvoid treeifyBin(Node<K,V>[] tab, int index) {  
  6.         Node<K,V> b; intn, sc;  
  7.     if (tab != null) {  
  8.         if ((n = tab.length) < MIN_TREEIFY_CAPACITY)  
  9.             tryPresize(n << 1); // 容量<64,則table兩倍擴容,不轉樹了
  10.         elseif ((b = tabAt(tab, index)) != null && b.hash >= 0) {  
  11.             synchronized (b) { // 讀寫鎖
  12.                 if (tabAt(tab, index) == b) {  
  13.                     TreeNode<K,V> hd = null, tl = null;  
  14.                     for (Node<K,V> e = b; e != null; e = e.next) {  
  15.                         TreeNode<K,V> p =  
  16.                             new TreeNode<K,V>(e.hash, e.key, e.val,  
  17.                                               nullnull);  
  18.                         if ((p.prev = tl) == null)  
  19.                             hd = p;  
  20.                         else
  21.                             tl.next = p;  
  22.                         tl = p;  
  23.                     }  
  24.                     setTabAt(tab, index, new TreeBin<K,V>(hd));  
  25.                 }  
  26.             }  
  27.         }  
  28.     }  
  29. }  

1.5 ForwardingNode
  1. // A node inserted at head of bins during transfer operations.連線兩個table
  2. // 並不是我們傳統的包含key-value的節點,只是一個標誌節點,並且指向nextTable,提供find方法而已。生命週期:僅存活於擴容操作且bin不為null時,一定會出現在每個bin的首位。
  3. staticfinalclass ForwardingNode<K,V> extends Node<K,V> {  
  4.     final Node<K,V>[] nextTable;  
  5.     ForwardingNode(Node<K,V>[] tab) {  
  6.         super(MOVED, nullnullnull); // 此節點hash=-1,key、value、next均為null
  7.         this.nextTable = tab;  
  8.     }  
  9.     Node<K,V> find(int h, Object k) {  
  10.         // 查nextTable節點,outer避免深度遞迴
  11.         outer: for (Node<K,V>[] tab = nextTable;;) {  
  12.             Node<K,V> e; intn;  
  13.             if (k == null || tab == null || (n = tab.length) == 0 ||  
  14.                 (e = tabAt(tab, (n - 1) & h)) == null)  
  15.                 returnnull;  
  16.             for (;;) { // CAS演算法多和死迴圈搭配!直到查到或null
  17.                 int eh; K ek;  
  18.                 if ((eh = e.hash) == h &&  
  19.                     ((ek = e.key) == k || (ek != null && k.equals(ek))))  
  20.                     returne;  
  21.                 if (eh < 0) {  
  22.                     if (e instanceof ForwardingNode) {  
  23.                         tab = ((ForwardingNode<K,V>)e).nextTable;  
  24.                         continue outer;  
  25.                     }  
  26.                     else
  27.                         return e.find(h, k);  
  28.                 }  
  29.                 if ((e = e.next) == null)  
  30.                     returnnull;  
  31.             }  
  32.         }  
  33.     }  
  34. }  

1.6  3個原子操作(呼叫頻率很高)

  1. @SuppressWarnings("unchecked"// ASHIFT等均為private static final
  2. staticfinal <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) { // 獲取索引i處Node
  3.     return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);  
  4.     }  
  5.     // 利用CAS演算法設定i位置上的Node節點(將c和table[i]比較,相同則插入v)。
  6.     staticfinal <K,V> boolean casTabAt(Node<K,V>[] tab, int i,  
  7.                                         Node<K,V> c, Node<K,V> v) {  
  8.         return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);  
  9.     }  
  10.     // 設定節點位置的值,僅在上鎖區被呼叫
  11.     staticfinal <K,V> void setTabAt(Node<K,V>[] tab, int i, Node<K,V> v) {  
  12.         U.putObjectVolatile(tab, ((long)i << ASHIFT) + ABASE, v);  
  13.     }  

1.7 Unsafe
  1. //在原始碼的6277行到最後,有著ConcurrentHashMap中極為重要的幾個屬性(SIZECTL),unsafe靜態塊控制其修改行為。Java8中,大量運用CAS進行變數、屬性的無鎖修改,大大提高效能。
  2. // Unsafe mechanics
  3. privatestaticfinal sun.misc.Unsafe U;  
  4. privatestaticfinallong SIZECTL;  
  5. privatestaticfinallong TRANSFERINDEX;  
  6. privatestaticfinallong BASECOUNT;  
  7. privatestaticfinallong CELLSBUSY;  
  8. privatestaticfinallong CELLVALUE;  
  9. privatestaticfinallong ABASE;  
  10. privatestaticfinalint ASHIFT;  
  11. static {  
  12.     try {  
  13.     U = sun.misc.Unsafe.getUnsafe();  
  14.     Class<?> k = ConcurrentHashMap.class;  
  15.     SIZECTL = U.objectFieldOffset (k.getDeclaredField("sizeCtl"));  
  16.     TRANSFERINDEX=U.objectFieldOffset(k.getDeclaredField("transferIndex"));  
  17.     BASECOUNT = U.objectFieldOffset (k.getDeclaredField("baseCount"));  
  18.     CELLSBUSY = U.objectFieldOffset (k.getDeclaredField("cellsBusy"));  
  19.     Class<?> ck = CounterCell.class;  
  20.     CELLVALUE = U.objectFieldOffset (ck.getDeclaredField("value"));  
  21.     Class<?> ak = Node[].class;  
  22.     ABASE = U.arrayBaseOffset(ak);  
  23.     intscale = U.arrayIndexScale(ak);  
  24.     if ((scale & (scale - 1)) != 0)  
  25.         thrownew Error("data type scale not a power of two");  
  26.     ASHIFT = 31 - Integer.numberOfLeadingZeros(scale);  
  27.     } catch (Exception e) {  
  28.     thrownew Error(e);  
  29.     }  
  30. }  


1.8 擴容相關    tryPresizeputAll以及treeifyBin中呼叫