多執行緒十二之ConcurrentHashMap1.8實現分析
目錄
- 簡介
- 資料結構
- 原始碼分析
- 常量及成員變數
- 構造方法
- 內部類
- Node
- ForwardingNode
- TreeBin
- TreeNode
- put(K key, V value)
- initTable()
- get(Object key)
- size()
- sumCount()
- addCount(long x, int check)更新baseCount部分
- mappingCount()
- 擴容
- addCount(long x, int check)檢查擴容部分
- sizeCtl
- transfer(Node<K,V>[ ] tab, Node<K,V>[ ] nextTab)
- helpTransfer(Node<K,V>[ ] tab, Node<K,V> f)
- 總結
簡介
本文是基於JDK8分析ConcurrentHashMap的實現,在前一篇博文多執行緒十一之ConcurrentHashMap1.7原始碼分析中分析了JDK7中是如何實現滿足併發且執行緒安全的ConcurrentHashMap:ConcurrentHashMap根據初始的併發度concurrencyLevel構建片段Segment陣列,最多可以實現有concurrencyLevel個執行緒進行併發讀寫,相對於HashTable利用synchronized
JDK8中ConcurrentHashMap做了如下改進:併發的最小單位不再是JDK7中的Segment片段,而是儲存鍵值對的節點Node,執行緒操作ConcurrentHashMap時鎖住的是裝載Node的桶,鎖的粒度變得更小了,意味著併發能力進一步增強,另外引入了紅黑樹來解決多個節點雜湊衝突造成查詢效率下降的問題。
資料結構
JDK8中不再使用Segment片段鎖,而是使用CAS+synchronized來保證併發時的執行緒安全。
原始碼分析
ConcurrentHashMap定義了很多常量,如下:
常量及成員變數
//Node桶陣列的最大長度:2^30
private static final int MAXIMUM_CAPACITY = 1 << 30;
//Node陣列預設長度,必須是2的冪次方
private static final int DEFAULT_CAPACITY = 16;
//轉換為陣列的最大長度
static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
//為了相容性,Java8中沒用到這個屬性
private static final int DEFAULT_CONCURRENCY_LEVEL = 16;
//預設的HashMap載入因子
private static final float LOAD_FACTOR = 0.75f;
//連結串列轉紅黑樹閾值,同一個桶中因為hash衝突的連結串列節點超過8個就轉換為紅黑樹
static final int TREEIFY_THRESHOLD = 8;
//紅黑樹轉連結串列閾值
static final int UNTREEIFY_THRESHOLD = 6;
//樹化最小Node陣列長度
static final int MIN_TREEIFY_CAPACITY = 64;
//擴容時單個執行緒推進最小步長,在擴容那裡詳細解釋用途
private static final int MIN_TRANSFER_STRIDE = 16;
//用於對Node陣列tab生成一個stamp
private static int RESIZE_STAMP_BITS = 16;
//2^15-1,用於幫助擴容的最大執行緒數量
private static final int MAX_RESIZERS = (1 << (32 - RESIZE_STAMP_BITS)) - 1;
//sizeCtl中記錄size大小的偏移量
private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;
//特定Node的hash值,程式中根據這些hash值判定Node型別
static final int MOVED = -1; // hash for forwarding nodes
static final int TREEBIN = -2; // hash for roots of trees
static final int RESERVED = -3; // hash for transient reservations
static final int HASH_BITS = 0x7fffffff; // usable bits of normal node hash
//執行環境CPU數量,transfer擴容時會用到這個引數
static final int NCPU = Runtime.getRuntime().availableProcessors();
sizeCtl:控制識別符號,用來控制table初始化和擴容操作的,當ConcurrentHashMap處於不同的狀態階段時sizeCtl
的值也不同,代表的含義也不同
- sizeCtl = -1,表示有執行緒正在進行真正的初始化操作
- sizeCtl = -(1 + nThreads),表示有nThreads個執行緒正在進行擴容操作
- sizeCtl > 0,分兩種情況:如果table陣列還沒有初始化,這就是初始化陣列的長度;如果已經初始化過了,sizeCtl是table陣列長度的0.75倍,代表擴容閾值。
- sizeCtl = 0,預設值,此時在真正的初始化操作中使用預設容量
//存放鍵值對Node陣列
transient volatile Node<K,V>[] table;
//擴容時指向新生成的陣列,不擴容為null
private transient volatile Node<K,V>[] nextTable;
//用於統計雜湊表中鍵值對個數
private transient volatile long baseCount;
//控制識別符號,當ConcurrentHashMap處於初始化/擴容等不同狀態,sizeCtl的值也不同,表示的意義也不同
private transient volatile int sizeCtl;
//擴容時執行緒把資料從老陣列向轉移的起點
private transient volatile int transferIndex;
構造方法
可以看到在呼叫構造方法建立ConcurrentHashMap物件時,只是根據傳入引數計算桶陣列初始長度賦值給sizeCtl
,並沒有初始化table陣列,延遲載入。
public ConcurrentHashMap(int initialCapacity,
float loadFactor, int concurrencyLevel) {
if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)
throw new IllegalArgumentException();
if (initialCapacity < concurrencyLevel) // Use at least as many bins
initialCapacity = concurrencyLevel; // as estimated threads
long size = (long)(1.0 + (long)initialCapacity / loadFactor);
int cap = (size >= (long)MAXIMUM_CAPACITY) ?
MAXIMUM_CAPACITY : tableSizeFor((int)size);
//初始化時根據這個值作為桶陣列table的長度
this.sizeCtl = cap;
}
內部類
Node
用於儲存key-value鍵值對,當雜湊衝突對映到同一個桶中會形成連結串列,Node是ConcurrentHashMap中最基礎的資料結構。
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
volatile V val;
volatile Node<K,V> next;
Node(int hash, K key, V val, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.val = val;
this.next = next;
}
//get方法會呼叫find方法,子類也會重寫find方法
Node<K,V> find(int h, Object k) {
Node<K,V> e = this;
if (k != null) {
do {
K ek;
if (e.hash == h &&
((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
} while ((e = e.next) != null);
}
return null;
}
}
ForwardingNode
繼承父類Node,不儲存鍵值對,是一個標記節點,ForwardingNode的hash值固定為MOVED
(-1),當ConcurrentHashMap處於擴容階段時會把資料從老的table陣列賦值到新的擴容後的table陣列,每當完成一個桶,就會在老陣列的桶的位置放上ForwardingNode表示這個位置已經複製完成,如果要這個這個地方的Node鍵值對,就去擴容後的nextTable中去尋找。
static final class ForwardingNode<K,V> extends Node<K,V> {
final Node<K,V>[] nextTable;
ForwardingNode(Node<K,V>[] tab) {
super(MOVED, null, null, null);
this.nextTable = tab;
}
//尋找key為k且hash值為h的鍵值對節點
Node<K,V> find(int h, Object k) {
// loop to avoid arbitrarily deep recursion on forwarding nodes
outer: for (Node<K,V>[] tab = nextTable;;) {
Node<K,V> e; int n;
if (k == null || tab == null || (n = tab.length) == 0 ||
(e = tabAt(tab, (n - 1) & h)) == null)
return null;
for (;;) {
int eh; K ek;
if ((eh = e.hash) == h &&
((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
if (eh < 0) {
if (e instanceof ForwardingNode) {
tab = ((ForwardingNode<K,V>)e).nextTable;
continue outer;
}
else
return e.find(h, k);
}
if ((e = e.next) == null)
return null;
}
}
}
}
TreeBin
當連結串列轉換為紅黑樹時,table陣列儲存的並不是紅黑樹的根節點,而是TreeBin節點,用來標識這裡存放的是一個紅黑樹,不儲存鍵值對資料,而是指向紅黑樹的根節點root。
static final class TreeBin<K,V> extends Node<K,V> {
TreeNode<K,V> root;
volatile TreeNode<K,V> first;
volatile Thread waiter;
volatile int lockState;
// values for lockState
static final int WRITER = 1; // set while holding write lock
static final int WAITER = 2; // set when waiting for write lock
static final int READER = 4; // increment value for setting read lock
/**
* Creates bin with initial set of nodes headed by b.
*/
TreeBin(TreeNode<K,V> b) {
super(TREEBIN, null, null, null);
this.first = b;
TreeNode<K,V> r = null;
for (TreeNode<K,V> x = b, next; x != null; x = next) {
next = (TreeNode<K,V>)x.next;
x.left = x.right = null;
if (r == null) {
x.parent = null;
x.red = false;
r = x;
}
else {
K k = x.key;
int h = x.hash;
Class<?> kc = null;
for (TreeNode<K,V> p = r;;) {
int dir, ph;
K pk = p.key;
if ((ph = p.hash) > h)
dir = -1;
else if (ph < h)
dir = 1;
else if ((kc == null &&
(kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0)
dir = tieBreakOrder(k, pk);
TreeNode<K,V> xp = p;
if ((p = (dir <= 0) ? p.left : p.right) == null) {
x.parent = xp;
if (dir <= 0)
xp.left = x;
else
xp.right = x;
r = balanceInsertion(r, x);
break;
}
}
}
}
this.root = r;
assert checkInvariants(root);
}
}
TreeNode
用於構建紅黑樹的基礎資料結構。
static final class TreeNode<K,V> extends Node<K,V> {
TreeNode<K,V> parent; // red-black tree links
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;
TreeNode(int hash, K key, V val, Node<K,V> next,
TreeNode<K,V> parent) {
super(hash, key, val, next);
this.parent = parent;
}
Node<K,V> find(int h, Object k) {
return findTreeNode(h, k, null);
}
final TreeNode<K,V> findTreeNode(int h, Object k, Class<?> kc) {
if (k != null) {
TreeNode<K,V> p = this;
do {
int ph, dir; K pk; TreeNode<K,V> q;
TreeNode<K,V> pl = p.left, pr = p.right;
if ((ph = p.hash) > h)
p = pl;
else if (ph < h)
p = pr;
else if ((pk = p.key) == k || (pk != null && k.equals(pk)))
return p;
else if (pl == null)
p = pr;
else if (pr == null)
p = pl;
else if ((kc != null ||
(kc = comparableClassFor(k)) != null) &&
(dir = compareComparables(kc, k, pk)) != 0)
p = (dir < 0) ? pl : pr;
else if ((q = pr.findTreeNode(h, k, kc)) != null)
return q;
else
p = pl;
} while (p != null);
}
return null;
}
}
put(K key, V value)
public V put(K key, V value) {
return putVal(key, value, false);
}
final V putVal(K key, V value, boolean onlyIfAbsent) {
//校驗引數合法性
if (key == null || value == null) throw new NullPointerException();
//計算鍵的hash值
int hash = spread(key.hashCode());
//用來桶中節點個數,判斷是否需要轉換為紅黑樹
int binCount = 0;
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
//如果table桶陣列還沒有初始化,那麼呼叫initTable初始化table
if (tab == null || (n = tab.length) == 0)
tab = initTable();
//key的hash值對映到的桶為空,也就是沒有存放過鍵值對,直接把鍵值對存放到這個桶裡
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
//桶裡的節點是ForwardingNode,ConcurrentHashMap處於擴容階段,讓當前執行緒幫助擴容
else if ((fh = f.hash) == MOVED)
//helpTransfer在擴容裡詳細分析
tab = helpTransfer(tab, f);
//如果不是以上情況,說明桶中已經有元素,可能是一個連結串列,可能是紅黑樹
else {
V oldVal = null;
//把桶中元素鎖住
synchronized (f) {
if (tabAt(tab, i) == f) {
//fh是桶中節點hash值,大於零說明不是TreeBin,是連結串列
if (fh >= 0) {
binCount = 1;
//迴圈遍歷連結串列
for (Node<K,V> e = f;; ++binCount) {
K ek;
//連結串列中有鍵值對的鍵與要插入的鍵相同,直接替換value
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
//把鍵值對插入連結串列末尾
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
//fh小於0,桶中存放的是紅黑樹
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
//檢查是否需要把連結串列轉為紅黑樹
if (binCount != 0) {
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
//更新ConcurrentHashMap中存放鍵值對個數
addCount(1L, binCount);
return null;
}
initTable()
通過構造器的原始碼我們可以知道構造器新建ConcurrentHashMap物件時只設定了table陣列的長度,沒有初始化,通過initTable來實現延遲載入的。
private final Node<K,V>[] initTable() {
Node<K,V>[] tab; int sc;
while ((tab = table) == null || tab.length == 0) {
//sizeCtl < 0 表示有其他執行緒在初始化,掛起當前執行緒
if ((sc = sizeCtl) < 0)
Thread.yield(); // lost initialization race; just spin
//sizeCtl設為-1,由當前執行緒負責桶陣列的初始化
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
if ((tab = table) == null || tab.length == 0) {
//根據引數設定桶陣列長度
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
//初始化陣列
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = tab = nt;
//sizeCtl為0.75n,達到0.75n的閾值就開始擴容
sc = n - (n >>> 2);
}
} finally {
sizeCtl = sc;
}
break;
}
}
return tab;
}
get(Object key)
get方法比較簡單,根據key
獲取儲存的鍵值對的value,主要有以下幾步:
- 計算key的hash值
- 根據hash值對映到桶陣列對應的桶,對映:
(n - 1) & h)
- 根據桶中元素是否是連結串列尋找對應的key
public V get(Object key) {
Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
//計算key的hash值
int h = spread(key.hashCode());
//判斷桶陣列不為空並找到key對應的桶
if ((tab = table) != null && (n = tab.length) > 0 &&
(e = tabAt(tab, (n - 1) & h)) != null) {
//桶中的第一個元素就是要找的鍵
if ((eh = e.hash) == h) {
if ((ek = e.key) == key || (ek != null && key.equals(ek)))
return e.val;
}
//桶中元素是ForWardingNode或TreeBin
else if (eh < 0)
return (p = e.find(h, key)) != null ? p.val : null;
//繼續在桶中的單鏈表尋找
while ((e = e.next) != null) {
if (e.hash == h &&
((ek = e.key) == key || (ek != null && key.equals(ek))))
return e.val;
}
}
return null;
}
size()
size方法用來統計ConcurrentHashMap中儲存的鍵值對個數
public int size() {
//呼叫sumCount方法
long n = sumCount();
return ((n < 0L) ? 0 :
(n > (long)Integer.MAX_VALUE) ? Integer.MAX_VALUE :
(int)n);
}
sumCount()
可以看到sumCount就是統計baseCount
和CountCell
陣列的和,為什麼要這樣統計呢?在putVal方法的末尾會呼叫addCount方法更新鍵值對的個數,去看看addCount方法。
final long sumCount() {
CounterCell[] as = counterCells; CounterCell a;
long sum = baseCount;
if (as != null) {
for (int i = 0; i < as.length; ++i) {
if ((a = as[i]) != null)
sum += a.value;
}
}
return sum;
}
addCount(long x, int check)更新baseCount部分
addCount方法分為兩部分,一部分是更新鍵值對數量,另一部分是檢查是否需要擴容。更新鍵值對數量先通過CAS更新baseCount,如果CAS更新失敗,說明執行緒併發競爭激烈,就通過CAS加死迴圈把要更新的值加到CounterCell陣列中,所以鍵值對的總數是baseCount以及遍歷CounterCell的和。
private final void addCount(long x, int check) {
CounterCell[] as; long b, s;
//CAS更新baseCount
if ((as = counterCells) != null ||
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
CounterCell a; long v; int m;
boolean uncontended = true;
//CAS更新CountCell
if (as == null || (m = as.length - 1) < 0 ||
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
!(uncontended =
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
fullAddCount(x, uncontended);
return;
}
if (check <= 1)
return;
s = sumCount();
}
//檢查是否需要擴容
......
}
mappingCount()
我們在回頭看一下size方法:因為n是long型別的,而size方法的返回值是int型別,所以會比較n是否超出了int範圍:
return ((n < 0L) ? 0 :
(n > (long)Integer.MAX_VALUE) ? Integer.MAX_VALUE :
(int)n);
如果超出了範圍就返回Integer.MAX_VALUE
。為什麼鍵值對的數量會超出int範圍呢?雖然ConcurrentHashMap中定義了常量MAXIMUM_CAPACITY
限定了table陣列的最大長度(2^30),但是由於hash衝突的原因一個桶中可能儲存多個鍵值對,資料量大的情境下是有可能超過int範圍,所以JDK建議使用mappingCount方法,實現與size方法一致返回值為long型別,不受int範圍限制。
public long mappingCount() {
long n = sumCount();
return (n < 0L) ? 0L : n; // ignore transient negative values
}
擴容
addCount(long x, int check)檢查擴容部分
ConcurrentHashMap的擴容就是通過transfer,transfer方法可以說將執行緒併發利用到極致。在詳細分析transfer實現之前我們得知道是什麼方法觸發了ConcurrentHashMap的擴容動作呢?答案就是之前分析了一半的addCount方法,主要有以下幾個步驟:
- 檢查當前當前ConcurrentHashMap中儲存的鍵值對個數是否超過閾值sizeCtl:
s>=(long)(sc=sizeCtl)
- 檢查是否有別的執行緒已經開始給ConcurrentHashMap擴容,如果已經開始:
- 檢查是否完畢,擴容完畢,跳出檢查
- 還在擴容中,當前執行緒加入擴容,sizeCtl加一。
- 沒有別的執行緒開始擴容,當前執行緒是開啟擴容的第一個執行緒,CAS設定sizeCtl小於0,表示擴容已經開始
從上面的分析中可以看到在擴容的流程中sizeCtl是一個很重要的狀態量,sizeCtl可以表示擴容是否開始,以及參與擴容執行緒的個數,下面分析sizeCtl在擴容中的變換:
private final void addCount(long x, int check) {
//更新baseCount
......
//檢查是否需要擴容
if (check >= 0) {
Node<K,V>[] tab, nt; int n, sc;
//鍵值對個數超過閾值sizeCtl
while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
(n = tab.length) < MAXIMUM_CAPACITY) {
//根據當前當前桶陣列長度生成擴容戳
int rs = resizeStamp(n);
//sc<0,擴容已經開始
if (sc < 0) {
//擴容完畢
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
transferIndex <= 0)
break;
//當前執行緒假如擴容
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
transfer(tab, nt);
}
//當前執行緒是開始擴容的第一個執行緒
else if (U.compareAndSwapInt(this, SIZECTL, sc,
(rs << RESIZE_STAMP_SHIFT) + 2))
transfer(tab, null);
s = sumCount();
}
}
}
sizeCtl
sizeCtl與擴容在擴容流程中有重要作用,如果執行緒是第一個開始擴容的執行緒的話,會把sizeCtl以CAS的方式設定為(rs << RESIZE_STAMP_SHIFT) + 2)
,這個rs是由resizeStamp方法生成的:
resizeStamp是根據傳入的桶陣列長度生成一個擴容戳(resizeStamp),我們知道桶陣列長度,也就是傳入的n是2的冪次方,Integer.numberOfLeadingZeros(n)
返回n的最高非零位前面的0的個數,再與1左移15位的結果異或得到生成的戳,如果我們傳入預設桶陣列長度16,返回的結果為32795,計算過程如下:
可以看到當桶陣列長度為16的ConcurrentHashMap開始擴容時,resizeStamp的返回值是0000 0000 0000 0000 1000 0000 0001 1011
,也就是32795。
當第一個執行緒開始擴容時,會設定sizeCtl的值為(rs << RESIZE_STAMP_SHIFT) + 2)
,如下:
此時sizeCtl
的值二進位制形式為1000 0000 0001 1011 0000 0000 0000 0010
,sizeCtl
分為兩部分,它的高16位由risizeCtl(n)的結果組成,如果有n個執行緒加入擴容,低16位的值為1+n
。由於此時sizeCtl的符號位為1,所以處於擴容狀態sizeCtl
的值總是小於0的負數。
static final int resizeStamp(int n) {
//numberOfLeadingZeros:該方法的作用是返回無符號整型i的最高非零位前面的0的個數,包括符號位在內
//1 << (RESIZE_STAMP_BITS - 1):把1左移(RESIZE_STAMP_BITS - 1)位,也就是15位
return Integer.numberOfLeadingZeros(n) | (1 << (RESIZE_STAMP_BITS - 1));
}
transfer(Node<K,V>[ ] tab, Node<K,V>[ ] nextTab)
transfer是擴容的核心方法,也可以說是ConcurrentHashMap中設計最精巧的方法了。傳入兩個引數,tab
指向擴容前的陣列,nextTab
指向資料要轉移過去的新陣列,第一個開始擴容的執行緒呼叫transfer方法傳入的nextTab
引數為空,後續擴容執行緒傳入的是成員變數nextTable
。
transfer方法開始把鍵值對從擴容前的陣列轉移到新陣列,這個方法並不是同步的,不是說開始擴容的執行緒負責把轉移所有的資料,併發大師Doug Lea每個參與擴容的執行緒負責轉移老陣列的一部分資料,轉移完了之後如果擴容還沒有結束再取一段資料,轉移資料的過程是併發的,最多可以有MAX_RESIZERS
(2^16)個執行緒同時參與,大致過程如下:
從上圖可以看出,執行緒轉移資料是從後往前開始的,當轉移過程發現index<0
說明擴容結束。
具體ConcurrentHashMap是怎麼遷移資料,下面以桶中的連結串列為例說明。如下圖所示8號桶中有6個連結串列節點,擴容執行緒會把這些節點分為兩部分:節點hash值與陣列長度做與運算結果為0的節點放到低位桶,結果為1的放到低位桶,然後把低位桶放到新陣列索引為8的桶中,把高位桶放到索引為24(i+n)的桶中。
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
int n = tab.length, stride;
//確定每個執行緒一次擴容負責處理多少個桶
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE; // subdivide range
//擴容的新桶陣列nextTable若為空,構建陣列
if (nextTab == null) { // initiating
try {
//新陣列長度是現在陣列長度兩倍,N=2n
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
sizeCtl = Integer.MAX_VALUE;
return;
}
//更新成員變數
nextTable = nextTab;
//初始化transferIndex,從舊陣列的末尾開始
transferIndex = n;
}
int nextn = nextTab.length;
//當執行緒完成一個桶的資料轉移,就在舊陣列桶的位置放上ForwardingNode標記節點,指向轉移後的新節點
//用來標記這個桶資料已經遷移完成
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
// 首次推進為 true,如果等於 true,說明需要再次推進一個下標(i--),反之,如果是 false,
//那麼就不能推進下標,需要將當前的下標處理完畢才能繼續推進
boolean advance = true;
//擴容是否完成標誌位
boolean finishing = false; // to ensure sweep before committing nextTab
//在這個死迴圈內執行緒負責轉移期間內桶陣列資料
for (int i = 0, bound = 0;;) {
Node<K,V> f; int fh;
//advance為true,執行緒向前推進,使得i--,i就是要處理的桶的索引,bound表示區間的下界
//transferIndex是區間的上界,i<bound說明執行緒處理完這個區間資料
while (advance) {
int nextIndex, nextBound;
//i必然大於bound
if (--i >= bound || finishing)
advance = false;
//transferIndex<=0 擴容完畢
else if ((nextIndex = transferIndex) <= 0) {
i = -1;
advance = false;
}
// CAS 修改 transferIndex,即 length - 區間值,留下剩餘的區間值供後面的執行緒使用
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
bound = nextBound;
i = nextIndex - 1;
advance = false;
}
}
//檢查擴容是否完成或當前執行緒是否完成任務
//i<0 擴容完成
//i >= tab.length或i + tab.length >= nextTable.length 都不可能發生
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
//finishing為true,說明擴容已經完成
if (finishing) {
//把nextTable置為空
nextTable = null;
//table指向擴容後的桶陣列
table = nextTab;
//設定下次擴容閾值sizeCtl,這裡的n是擴容前舊陣列的長度
//sizeCtl=2n-0.5n=1.5n 新陣列長度N=2n。載入因子:1.5n/2n=0.75
//從這裡可以看出即使構造方法傳入的載入因子不是0.75也不影響
sizeCtl = (n << 1) - (n >>> 1);
return;
}
//finishng不為true,嘗試將 sc -1. 表示這個執行緒結束幫助擴容了,將 sc 的低 16 位減一
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
//如果 sc - 2 不等於識別符號左移 16 位。如果他們相等了,說明沒有執行緒在幫助他們擴容了。
//也就是說,擴容結束了。不相等說明沒有結束,但是當前執行緒的擴容任務完成了
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
return;
//相等,說明擴容已經完成
finishing = advance = true;
i = n; // recheck before commit
}
}
//正式開始遷移資料到新的桶陣列
//如果i對應的桶為null,直接把標誌節點放到桶中
else if ((f = tabAt(tab, i)) == null)
advance = casTabAt(tab, i, null, fwd);
//根據hash值判斷i對應的桶中節點為ForwardingNode,說明這個桶已經被處理了
else if ((fh = f.hash) == MOVED)
advance = true; // already processed
//桶中節點可能是連結串列節點Node,也可能是紅黑樹節點TreeBin
else {
//把桶中節點鎖住,防止插入或刪除
synchronized (f) {
if (tabAt(tab, i) == f) {
//ln:低位桶 hn:高位桶
Node<K,V> ln, hn;
//桶中節點hash值大於0,是連結串列型別節點Node
if (fh >= 0) {
//runBit由節點hash值與舊陣列的長度做與運算,由於陣列長度是2的冪次方,
//所以runBit要麼為1,要麼為0
int runBit = fh & n;
//從連結串列尾部到laseRun節點,runBit值相同
Node<K,V> lastRun = f;
//迴圈遍歷找lastRun節點
for (Node<K,V> p = f.next; p != null; p = p.next) {
int b = p.hash & n;
if (b != runBit) {
runBit = b;
lastRun = p;
}
}
//runBit為0,從lastRun到連結串列尾節點都放到ln低位桶
if (runBit == 0) {
ln = lastRun;
hn = null;
}
//否則放到高位桶
else {
hn = lastRun;
ln = null;
}
//從連結串列頭部遍歷到lastRun節點,節點的runBit為0放到地位桶,為1放到高位桶
for (Node<K,V> p = f; p != lastRun; p = p.next) {
int ph = p.hash; K pk = p.key; V pv = p.val;
if ((ph & n) == 0)
//頭插法
ln = new Node<K,V>(ph, pk, pv, ln);
else
hn = new Node<K,V>(ph, pk, pv, hn);
}
//插入到新桶陣列中
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
//在舊陣列的桶中放入標記節點
setTabAt(tab, i, fwd);
advance = true;
}
//桶中節點為紅黑樹,處理邏輯與上面相似
else if (f instanceof TreeBin) {
TreeBin<K,V> t = (TreeBin<K,V>)f;
TreeNode<K,V> lo = null, loTail = null;
TreeNode<K,V> hi = null, hiTail = null;
int lc = 0, hc = 0;
for (Node<K,V> e = t.first; e != null; e = e.next) {
int h = e.hash;
TreeNode<K,V> p = new TreeNode<K,V>
(h, e.key, e.val, null, null);
if ((h & n) == 0) {
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
}
else {
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new TreeBin<K,V>(lo) : t;
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new TreeBin<K,V>(hi) : t;
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
}
}
}
}
}
helpTransfer(Node<K,V>[ ] tab, Node<K,V> f)
除了addCount
會在檢查是否需要擴容的時候觸發transfer
方法,當putVal
方法新增的鍵值對對映到對應的桶中節點型別為ForwardingNode
時,也會觸發擴容,也就是如下程式碼:
會呼叫helpTransfer
方法幫助擴容,下面重點分析程式中的這一段判斷擴容是否完成的if條件:
sc >>>RESIZE_STAMP_SHIFT)!=rs
在我們分析sizeCtl
時知道:當第一個開始給ConcurrentHashMap擴容時,會設定sizeCtl
的值為rs << RESIZE_STAMP_SHIFT) + 2
,從transfer
方法可以知道,當擴容結束時會設定sizeCtl = (n << 1) - (n >>> 1)
重新變為正數。所以當sc >>>RESIZE_STAMP_SHIFT)!=rs
說明此時sizeCtl
的值為(n << 1) - (n >>> 1)
,擴容已經結束了。
final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
Node<K,V>[] nextTab; int sc;
//檢查擴容是否結束
if (tab != null && (f instanceof ForwardingNode) &&
(nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
int rs = resizeStamp(tab.length);
while (nextTab == nextTable && table == tab &&
(sc = sizeCtl) < 0) {
//擴容完畢
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || transferIndex <= 0)
break;
//當前執行緒加入擴容
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
transfer(tab, nextTab);
break;
}
}
return nextTab;
}
return table;
}
總結
寫到這裡關於JDK8中的ConcurrentHashMap已經學習完畢,花了差不多5天的時間。ConcurrentHashMap作為多執行緒環境下的HashMap,向我們展示瞭如何在多執行緒環境下保持執行緒安全、提高併發效率的技巧:即減小鎖的粒度、利用CAS無鎖演算法,尤其是其中的transfer
方法,是值得我們再三學習和挖掘