分布式唯一id:snowflake算法思考
匠心零度 轉載請註明原創出處,謝謝!
緣起
為什麽會突然談到分布式唯一id呢?原因是最近在準備使用RocketMQ,看看官網介紹:
一句話,消息可能會重復,所以消費端需要做冪等。為什麽消息會重復後續RocketMQ章節進行詳細介紹,本節重點不在這裏。
為了達到業務的冪等,必須要有這樣一個id存在,需要滿足下面幾個條件:
- 同一業務場景要全局唯一。
- 該id必須是在消息的發送方進行產生發送到MQ。
- 消費端根據該id進行判斷是否重復,確保冪等。
在那裏產生,和消費端進行判斷等和這個id沒有關系,這個id的要求就是局部唯一或者全局唯一即可,由於這個id是唯一的,可以用來當數據庫的主鍵,既然要做主鍵那麽之前剛剛好發過一篇文章:從開發者角度談Mysql(1):主鍵問題,文章重點提到為什麽需要自增、或者趨勢自增的好處。(和Mysql數據存儲做法有關)。
那麽該id需要有2個特性:
- 局部、全局唯一。
- 趨勢遞增。
如果有方法可以生成全局唯一(那麽在局部也一定唯一了),生成分布式唯一id的方法有很多。大家可以看看分布式系統唯一ID生成方案匯總:http://www.cnblogs.com/haoxinyue/p/5208136.html
(由於微信不是他的地址都顯示不出來,所以把地址貼出來下),這個文章裏面提到了很多以及各各的優缺點。
本文關註重點是snowflake算法,該算法實現得到的id就滿足上面提到的2點。
snowflake算法
snowflake是Twitter開源的分布式ID生成算法,結果是一個long型的ID。其核心思想是:使用41bit作為毫秒數,10bit作為機器的ID(5個bit是數據中心,5個bit的機器ID),12bit作為毫秒內的流水號(意味著每個節點在每毫秒可以產生 4096 個 ID),最後還有一個符號位,永遠是0。
該算法實現基本就是二進制操作,如果二進制不熟悉的可以看看我之前寫的相關文章:java二進制相關基礎、二進制實戰技巧。
這個算法單機每秒內理論上最多可以生成1000*(2^12),也就是409.6萬個ID,(吼吼,這個得了的快啊)。
java實現代碼基本上就是類似這樣的(都差不多,基本就是二進制位操作):
參考:https://www.cnblogs.com/relucent/p/4955340.html
/**
* Twitter_Snowflake<br>
* SnowFlake的結構如下(每部分用-分開):<br>
* 0 - 0000000000 0000000000 0000000000 0000000000 0 - 00000 - 00000 - 000000000000 <br>
* 1位標識,由於long基本類型在Java中是帶符號的,最高位是符號位,正數是0,負數是1,所以id一般是正數,最高位是0<br>
* 41位時間截(毫秒級),註意,41位時間截不是存儲當前時間的時間截,而是存儲時間截的差值(當前時間截 - 開始時間截)
* 得到的值),這裏的的開始時間截,一般是我們的id生成器開始使用的時間,由我們程序來指定的(如下下面程序IdWorker類的startTime屬性)。41位的時間截,可以使用69年,年T = (1L << 41) / (1000L * 60 * 60 * 24 * 365) = 69<br>
* 10位的數據機器位,可以部署在1024個節點,包括5位datacenterId和5位workerId<br>
* 12位序列,毫秒內的計數,12位的計數順序號支持每個節點每毫秒(同一機器,同一時間截)產生4096個ID序號<br>
* 加起來剛好64位,為一個Long型。<br>
* SnowFlake的優點是,整體上按照時間自增排序,並且整個分布式系統內不會產生ID碰撞(由數據中心ID和機器ID作區分),並且效率較高,經測試,SnowFlake每秒能夠產生26萬ID左右。
*/
public class SnowflakeIdWorker {
// ==============================Fields===========================================
/** 開始時間截 (2015-01-01) */
private final long twepoch = 1420041600000L;
/** 機器id所占的位數 */
private final long workerIdBits = 5L;
/** 數據標識id所占的位數 */
private final long datacenterIdBits = 5L;
/** 支持的最大機器id,結果是31 (這個移位算法可以很快的計算出幾位二進制數所能表示的最大十進制數) */
private final long maxWorkerId = -1L ^ (-1L << workerIdBits);
/** 支持的最大數據標識id,結果是31 */
private final long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);
/** 序列在id中占的位數 */
private final long sequenceBits = 12L;
/** 機器ID向左移12位 */
private final long workerIdShift = sequenceBits;
/** 數據標識id向左移17位(12+5) */
private final long datacenterIdShift = sequenceBits + workerIdBits;
/** 時間截向左移22位(5+5+12) */
private final long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;
/** 生成序列的掩碼,這裏為4095 (0b111111111111=0xfff=4095) */
private final long sequenceMask = -1L ^ (-1L << sequenceBits);
/** 工作機器ID(0~31) */
private long workerId;
/** 數據中心ID(0~31) */
private long datacenterId;
/** 毫秒內序列(0~4095) */
private long sequence = 0L;
/** 上次生成ID的時間截 */
private long lastTimestamp = -1L;
//==============================Constructors=====================================
/**
* 構造函數
* @param workerId 工作ID (0~31)
* @param datacenterId 數據中心ID (0~31)
*/
public SnowflakeIdWorker(long workerId, long datacenterId) {
if (workerId > maxWorkerId || workerId < 0) {
throw new IllegalArgumentException(String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
}
if (datacenterId > maxDatacenterId || datacenterId < 0) {
throw new IllegalArgumentException(String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
}
this.workerId = workerId;
this.datacenterId = datacenterId;
}
// ==============================Methods==========================================
/**
* 獲得下一個ID (該方法是線程安全的)
* @return SnowflakeId
*/
public synchronized long nextId() {
long timestamp = timeGen();
//如果當前時間小於上一次ID生成的時間戳,說明系統時鐘回退過這個時候應當拋出異常
if (timestamp < lastTimestamp) {
throw new RuntimeException(
String.format("Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - timestamp));
}
//如果是同一時間生成的,則進行毫秒內序列
if (lastTimestamp == timestamp) {
sequence = (sequence + 1) & sequenceMask;
//毫秒內序列溢出
if (sequence == 0) {
//阻塞到下一個毫秒,獲得新的時間戳
timestamp = tilNextMillis(lastTimestamp);
}
}
//時間戳改變,毫秒內序列重置
else {
sequence = 0L;
}
//上次生成ID的時間截
lastTimestamp = timestamp;
//移位並通過或運算拼到一起組成64位的ID
return ((timestamp - twepoch) << timestampLeftShift) //
| (datacenterId << datacenterIdShift) //
| (workerId << workerIdShift) //
| sequence;
}
/**
* 阻塞到下一個毫秒,直到獲得新的時間戳
* @param lastTimestamp 上次生成ID的時間截
* @return 當前時間戳
*/
protected long tilNextMillis(long lastTimestamp) {
long timestamp = timeGen();
while (timestamp <= lastTimestamp) {
timestamp = timeGen();
}
return timestamp;
}
/**
* 返回以毫秒為單位的當前時間
* @return 當前時間(毫秒)
*/
protected long timeGen() {
return System.currentTimeMillis();
}
//==============================Test=============================================
/** 測試 */
public static void main(String[] args) {
SnowflakeIdWorker idWorker = new SnowflakeIdWorker(0, 0);
for (int i = 0; i < 1000; i++) {
long id = idWorker.nextId();
System.out.println(Long.toBinaryString(id));
System.out.println(id);
}
}
}
優點:
- 快(哈哈,天下武功唯快不破)。
- 沒有啥依賴,實現也特別簡單。
- 知道原理之後可以根據實際情況調整各各位段,方便靈活。
缺點:
- 只能趨勢遞增。(有些也不叫缺點,網上有些如果絕對遞增,競爭對手中午下單,第二天在下單即可大概判斷該公司的訂單量,危險!!!)
- 依賴機器時間,如果發生回撥會導致可能生成id重復。
下面重點討論時間回撥問題。
snowflake算法時間回撥問題思考
由於存在時間回撥問題,但是他又是那麽快和簡單,我們思考下是否可以解決呢? 零度在網上找了一圈沒有發現具體的解決方案,但是找到了一篇美團不錯的文章:Leaf——美團點評分布式ID生成系統(https://tech.meituan.com/MT_Leaf.html)
文章很不錯,可惜並沒有提到時間回撥如何具體解決。下面看看零度的一些思考:
分析時間回撥產生原因
第一:人物操作,在真實環境一般不會有那個傻逼幹這種事情,所以基本可以排除。
第二:由於有些業務等需要,機器需要同步時間服務器(在這個過程中可能會存在時間回撥,查了下我們服務器一般在10ms以內(2小時同步一次))。
解決方法
由於是分布在各各機器自己上面,如果要幾臺集中的機器(並且不做時間同步),那麽就基本上就不存在回撥可能性了(曲線救國也是救國,哈哈),但是也的確帶來了新問題,各各結點需要訪問集中機器,要保證性能,百度的uid-generator產生就是基於這種情況做的(每次取一批回來,很好的思想,性能也非常不錯)https://github.com/baidu/uid-generator。
如果到這裏你采納了,基本就沒有啥問題了,你就不需要看了,如果你還想看看零度自己的思考可以繼續往下看看(零度的思考只是一種思考 可能也不一定好,期待你的交流。),uid-generator我還沒有細看,但是看測試報告非常不錯,後面有空的確要好好看看。下面談談零度自己的思考,之前也大概和美團Leaf作者交流了下,的確零度的這個可以解決一部分問題,但是引入了一些其他問題和依賴。是零度的思考,期待更多的大佬給點建議。
時間問題回撥的解決方法:
- 當回撥時間小於15ms,就等時間追上來之後繼續生成。
- 當時間大於15ms時間我們通過更換workid來產生之前都沒有產生過的來解決回撥問題。
首先把workid的位數進行了調整(15位可以達到3萬多了,一般夠用了)
Snowflake算法稍微調整下位段:
- sign(1bit)
固定1bit符號標識,即生成的暢途分布式唯一id為正數。 - delta seconds (38 bits)
當前時間,相對於時間基點"2017-12-21"的增量值,單位:毫秒,最多可支持約8.716年 - worker id (15 bits)
機器id,最多可支持約3.28萬個節點。 - sequence (10 bits)
每秒下的並發序列,10 bits,這個算法單機每秒內理論上最多可以生成1000*(2^10),也就是100W的ID,完全能滿足業務的需求。
由於服務無狀態化關系,所以一般workid也並不配置在具體配置文件裏面,看看我這篇的思考,為什麽需要無狀態化。高可用的一些思考和理解,這裏我們選擇redis來進行中央存儲(zk、db)都是一樣的,只要是集中式的就可以。
下面到了關鍵了:
現在我把3萬多個workid放到一個隊列中(基於redis),由於需要一個集中的地方來管理workId,每當節點啟動時候,(先在本地某個地方看看是否有 借鑒弱依賴zk 本地先保存),如果有那麽值就作為workid,如果不存在,就在隊列中取一個當workid來使用(隊列取走了就沒了 ),當發現時間回撥太多的時候,我們就再去隊列取一個來當新的workid使用,把剛剛那個使用回撥的情況的workid存到隊列裏面(隊列我們每次都是從頭取,從尾部進行插入,這樣避免剛剛a機器使用又被b機器獲取的可能性)。
有幾個問題值得思考:
如果引入了redis為啥不用redis下發id?(查看分布式系統唯一ID生成方案匯總會獲得答案,我們這裏僅僅是用來一致性隊列的,能做一致性隊列的基本都可以)。
引入redis就意味著引入其他第三方的架構,做基礎框架最好是不要引用(越簡單越好,目前還在學習提高)。
redis一致性怎麽保證?(redis掛了怎麽辦,怎麽同步,的確值得商榷。可能會引入會引入很多新的小問題)。
總結
所以選擇類似百度的那種做法比較好,集中之後批取,零度的思考雖然思考了,但是從基礎組件來看並不是特別合適,但是也算一種思路吧。期待與大佬們的交流。
如果讀完覺得有收獲的話,歡迎點贊、關註、加公眾號【匠心零度】,查閱更多精彩歷史!!!
分布式唯一id:snowflake算法思考