分布式高並發下全局ID生成策略
數據在分片時,典型的是分庫分表,就有一個全局ID生成的問題。
單純的生成全局ID並不是什麽難題,但是生成的ID通常要滿足分片的一些要求:
1 不能有單點故障。
2 以時間為序,或者ID裏包含時間。這樣一是可以少一個索引,二是冷熱數據容易分離。
3 可以控制ShardingId。比如某一個用戶的文章要放在同一個分片內,這樣查詢效率高,修改也容易。
4 不要太長,最好64bit。使用long比較好操作,如果是96bit,那就要各種移位相當的不方便,還有可能有些組件不能支持這麽大的ID。
一 twitter
twitter在把存儲系統從MySQL遷移到Cassandra的過程中由於Cassandra沒有順序ID生成機制,於是自己開發了一套全局唯一ID生成服務:Snowflake。
1 41位的時間序列(精確到毫秒,41位的長度可以使用69年)
2 10位的機器標識(10位的長度最多支持部署1024個節點)
3 12位的計數順序號(12位的計數順序號支持每個節點每毫秒產生4096個ID序號) 最高位是符號位,始終為0。
優點:高性能,低延遲;獨立的應用;按時間有序。 缺點:需要獨立的開發和部署。
原理
java 實現代碼
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 |
public class IdWorker {
private final long workerId;
private final static long twepoch = 1288834974657L;
private long sequence = 0L;
private final static long workerIdBits = 4L;
public final static long maxWorkerId = -1L ^ -1L << workerIdBits;
private final static long sequenceBits = 10L;
private final static long workerIdShift = sequenceBits;
private final static long timestampLeftShift = sequenceBits + workerIdBits; public final static long sequenceMask = -1L ^ -1L << sequenceBits;
private long lastTimestamp = -1L;
public IdWorker( final long workerId) {
super ();
if (workerId > this .maxWorkerId || workerId < 0 ) {
throw new IllegalArgumentException(String.format(
"worker Id can‘t be greater than %d or less than 0" ,
this .maxWorkerId));
}
this .workerId = workerId;
}
public synchronized long nextId() {
long timestamp = this .timeGen();
if ( this .lastTimestamp == timestamp) {
this .sequence = ( this .sequence + 1 ) & this .sequenceMask;
if ( this .sequence == 0 ) {
System.out.println( "###########" + sequenceMask);
timestamp = this .tilNextMillis( this .lastTimestamp);
}
} else {
this .sequence = 0 ;
}
if (timestamp < this .lastTimestamp) {
try {
throw new Exception(
String.format(
"Clock moved backwards. Refusing to generate id for %d milliseconds" ,
this .lastTimestamp - timestamp));
} catch (Exception e) {
e.printStackTrace();
}
}
this .lastTimestamp = timestamp;
long nextId = ((timestamp - twepoch << timestampLeftShift))
| ( this .workerId << this .workerIdShift) | ( this .sequence);
System.out.println( "timestamp:" + timestamp + ",timestampLeftShift:"
+ timestampLeftShift + ",nextId:" + nextId + ",workerId:"
+ workerId + ",sequence:" + sequence);
return nextId;
}
private long tilNextMillis( final long lastTimestamp) {
long timestamp = this .timeGen();
while (timestamp <= lastTimestamp) {
timestamp = this .timeGen();
}
return timestamp;
}
private long timeGen() {
return System.currentTimeMillis();
}
public static void main(String[] args){
IdWorker worker2 = new IdWorker( 2 );
System.out.println(worker2.nextId());
}
}
|
2 來自Flicker的解決方案
因為MySQL本身支持auto_increment操作,很自然地,我們會想到借助這個特性來實現這個功能。
Flicker在解決全局ID生成方案裏就采用了MySQL自增長ID的機制(auto_increment + replace into + MyISAM)。一個生成64位ID方案具體就是這樣的:
先創建單獨的數據庫(eg:ticket),然後創建一個表:
1 2 3 4 5 6 |
CREATE TABLE Tickets64 (
id bigint (20) unsigned NOT NULL auto_increment,
stub char (1) NOT NULL default ‘‘ ,
PRIMARY KEY (id),
UNIQUE KEY stub (stub)
) ENGINE=MyISAM
|
當我們插入記錄後,執行SELECT * from Tickets64,查詢結果就是這樣的:
+-------------------+------+
| id | stub |
+-------------------+------+
| 72157623227190423 | a |
+-------------------+------+
在我們的應用端需要做下面這兩個操作,在一個事務會話裏提交:
1 2 |
REPLACE INTO Tickets64 (stub) VALUES ( ‘a‘ );
SELECT LAST_INSERT_ID();
|
這樣我們就能拿到不斷增長且不重復的ID了。
到上面為止,我們只是在單臺數據庫上生成ID,從高可用角度考慮,接下來就要解決單點故障問題:Flicker啟用了兩臺數據庫服務器來生成ID,通過區分auto_increment的起始值和步長來生成奇偶數的ID。
1 2 3 4 5 6 7 |
TicketServer1:
auto-increment-increment = 2
auto-increment-offset = 1
TicketServer2:
auto-increment-increment = 2
auto-increment-offset = 2
|
最後,在客戶端只需要通過輪詢方式取ID就可以了。
優點:充分借助數據庫的自增ID機制,提供高可靠性,生成的ID有序。
缺點:占用兩個獨立的MySQL實例,有些浪費資源,成本較高。
三 UUID
UUID生成的是length=32的16進制格式的字符串,如果回退為byte數組共16個byte元素,即UUID是一個128bit長的數字,
一般用16進制表示。
算法的核心思想是結合機器的網卡、當地時間、一個隨即數來生成UUID。
從理論上講,如果一臺機器每秒產生10000000個GUID,則可以保證(概率意義上)3240年不重復
優點:
(1)本地生成ID,不需要進行遠程調用,時延低
(2)擴展性好,基本可以認為沒有性能上限
缺點:
(1)無法保證趨勢遞增
(2)uuid過長,往往用字符串表示,作為主鍵建立索引查詢效率低,常見優化方案為“轉化為兩個uint64整數存儲”或者“折半存儲”(折半後不能保證唯一性)
四 基於redis的分布式ID生成器
首先,要知道redis的EVAL,EVALSHA命令:
原理
利用redis的lua腳本執行功能,在每個節點上通過lua腳本生成唯一ID。
生成的ID是64位的:
使用41 bit來存放時間,精確到毫秒,可以使用41年。
使用12 bit來存放邏輯分片ID,最大分片ID是4095
使用10 bit來存放自增長ID,意味著每個節點,每毫秒最多可以生成1024個ID
比如GTM時間 Fri Mar 13 10:00:00 CST 2015 ,它的距1970年的毫秒數是 1426212000000,假定分片ID是53,自增長序列是4,則生成的ID是:
5981966696448054276 = 1426212000000 << 22 + 53 << 10 + 41
redis提供了TIME命令,可以取得redis服務器上的秒數和微秒數。因些lua腳本返回的是一個四元組。
second, microSecond, partition, seq
客戶端要自己處理,生成最終ID。
((second * 1000 + microSecond / 1000) << (12 + 10)) + (shardId << 10) + seq;
五 MongoDB文檔(Document)全局唯一ID
為了考慮分布式,“_id”要求不同的機器都能用全局唯一的同種方法方便的生成它。因此不能使用自增主鍵(需要多臺服務器進行同步,既費時又費力),
因此選用了生成ObjectId對象的方法。
ObjectId使用12字節的存儲空間,其生成方式如下:
|0|1|2|3|4|5|6 |7|8|9|10|11|
|時間戳 |機器ID|PID|計數器 |
前四個字節時間戳是從標準紀元開始的時間戳,單位為秒,有如下特性:
1 時間戳與後邊5個字節一塊,保證秒級別的唯一性;
2 保證插入順序大致按時間排序;
3 隱含了文檔創建時間;
4 時間戳的實際值並不重要,不需要對服務器之間的時間進行同步(因為加上機器ID和進程ID已保證此值唯一,唯一性是ObjectId的最終訴求)。
機器ID是服務器主機標識,通常是機器主機名的散列值。
同一臺機器上可以運行多個mongod實例,因此也需要加入進程標識符PID。
前9個字節保證了同一秒鐘不同機器不同進程產生的ObjectId的唯一性。後三個字節是一個自動增加的計數器(一個mongod進程需要一個全局的計數器),保證同一秒的ObjectId是唯一的。同一秒鐘最多允許每個進程擁有(256^3 = 16777216)個不同的ObjectId。
總結一下:時間戳保證秒級唯一,機器ID保證設計時考慮分布式,避免時鐘同步,PID保證同一臺服務器運行多個mongod實例時的唯一性,最後的計數器保證同一秒內的唯一性(選用幾個字節既要考慮存儲的經濟性,也要考慮並發性能的上限)。
"_id"既可以在服務器端生成也可以在客戶端生成,在客戶端生成可以降低服務器端的壓力。
分布式高並發下全局ID生成策略