核心思想:
SnowFlake的結構如下(每部分用-分開):<br>
* 0 - 0000000000 0000000000 0000000000 0000000000 0 - 00000 - 00000 - 000000000000 <br>
* 1位標識,由於long基本類型在Java中是帶符號的,最高位是符號位,正數是0,負數是1,所以id一般是正數,最高位是0<br>
* 41位時間截(毫秒級),注意,41位時間截不是存儲當前時間的時間截,而是存儲時間截的差值(當前時間截 - 開始時間截)
* 得到的值),這里的的開始時間截,一般是我們的id生成器開始使用的時間,由我們程序來指定的(如下下面程序IdWorker類的startTime屬性)。41位的時間截,可以使用69年,年T = (1L << 41) / (1000L * 60 * 60 * 24 * 365) = 69<br>
* 10位的數據機器位,可以部署在1024個節點,包括5位datacenterId和5位workerId<br>
* 12位序列,毫秒內的計數,12位的計數順序號支持每個節點每毫秒(同一機器,同一時間截)產生4096個ID序號<br>
* 加起來剛好64位,為一個Long型。<br>
* SnowFlake的優點是,整體上按照時間自增排序,並且整個分布式系統內不會產生ID碰撞(由數據中心ID和機器ID作區分),並且效率較高,經測試,SnowFlake每秒能夠產生26萬ID左右。
*/
網上的教程一般存在兩個問題:
* 1. 機器ID(5位)和數據中心ID(5位)配置沒有解決,分布式部署的時候會使用相同的配置,任然有ID重復的風險。
* 2. 使用的時候需要實例化對象,沒有形成開箱即用的工具類。
*
* 本文針對上面兩個問題進行解決,筆者的解決方案是,workId使用服務器hostName生成,
* dataCenterId使用IP生成,這樣可以最大限度防止10位機器碼重復,但是由於兩個ID都不能超過32,
* 只能取余數,還是難免產生重復,但是實際使用中,hostName和IP的配置一般連續或相近,
* 只要不是剛好相隔32位,就不會有問題,況且,hostName和IP同時相隔32的情況更加是幾乎不可能
* 的事,平時做的分布式部署,一般也不會超過10台容器。使用上面的方法可以零配置使用雪花算法,
* 雪花算法10位機器碼的設定理論上可以有1024個節點,生產上使用docker配置一般是一次編譯,
* 然后分布式部署到不同容器,不會有不同的配置,這里不知道其他公司是如何解決的,即使有方法
* 使用一套配置,然后運行時根據不同容器讀取不同的配置,但是給每個容器編配ID,1024個
* (大部分情況下沒有這么多),似乎也不太可能,此問題留待日后解決后再行補充。
*/
現在通過配置文件配置 數據中心(機房)編碼 和 機器碼,如果沒有配置則通過機器IP個機器明取余生成這2個編碼
一 創建生成器
package spring.cloud.common.util.id;
/**
*
* 來源:https://www.cnblogs.com/relucent/p/4955340.html
* 作者:永夜微光
* Twitter_Snowflake<br>
* SnowFlake的結構如下(每部分用-分開):<br>
* 0 - 0000000000 0000000000 0000000000 0000000000 0 - 00000 - 00000 - 000000000000 <br>
* 1位標識,由於long基本類型在Java中是帶符號的,最高位是符號位,正數是0,負數是1,所以id一般是正數,最高位是0<br>
* 41位時間截(毫秒級),注意,41位時間截不是存儲當前時間的時間截,而是存儲時間截的差值(當前時間截 - 開始時間截)
* 得到的值),這里的的開始時間截,一般是我們的id生成器開始使用的時間,由我們程序來指定的(如下下面程序IdWorker類的startTime屬性)。41位的時間截,可以使用69年,年T = (1L << 41) / (1000L * 60 * 60 * 24 * 365) = 69<br>
* 10位的數據機器位,可以部署在1024個節點,包括5位datacenterId和5位workerId<br>
* 12位序列,毫秒內的計數,12位的計數順序號支持每個節點每毫秒(同一機器,同一時間截)產生4096個ID序號<br>
* 加起來剛好64位,為一個Long型。<br>
* SnowFlake的優點是,整體上按照時間自增排序,並且整個分布式系統內不會產生ID碰撞(由數據中心ID和機器ID作區分),並且效率較高,經測試,SnowFlake每秒能夠產生26萬ID左右。
*/
public class SnowflakeIdWorker {
// ==============================Fields===========================================
/**
* 開始時間截 (2019-02-01)
*/
private final long twepoch = 1548950400000L;
/**
* 機器id所占的位數
*/
private final long workerIdBits = 5L;
/**
* 數據標識id所占的位數
*/
private final long datacenterIdBits = 5L;
/**
* 支持的最大機器id,結果是31 (這個移位算法可以很快的計算出幾位二進制數所能表示的最大十進制數)
*/
private final long maxWorkerId = -1L ^ (-1L << workerIdBits);
/**
* 支持的最大數據標識id,結果是31
*/
private final long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);
/**
* 序列在id中占的位數
*/
private final long sequenceBits = 12L;
/**
* 機器ID向左移12位
*/
private final long workerIdShift = sequenceBits;
/**
* 數據標識id向左移17位(12+5)
*/
private final long datacenterIdShift = sequenceBits + workerIdBits;
/**
* 時間截向左移22位(5+5+12)
*/
private final long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;
/**
* 生成序列的掩碼,這里為4095 (0b111111111111=0xfff=4095)
*/
private final long sequenceMask = -1L ^ (-1L << sequenceBits);
/**
* 工作機器ID(0~31)
*/
private long workerId;
/**
* 數據中心ID(0~31)
*/
private long datacenterId;
/**
* 毫秒內序列(0~4095)
*/
private long sequence = 0L;
/**
* 上次生成ID的時間截
*/
private long lastTimestamp = -1L;
//==============================Constructors=====================================
/**
* 構造函數
*
* @param workerId 工作ID (0~31)
* @param datacenterId 數據中心ID (0~31)
*/
public SnowflakeIdWorker(long workerId, long datacenterId) {
if (workerId > maxWorkerId || workerId < 0) {
throw new IllegalArgumentException(String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
}
if (datacenterId > maxDatacenterId || datacenterId < 0) {
throw new IllegalArgumentException(String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
}
this.workerId = workerId;
this.datacenterId = datacenterId;
}
// ==============================Methods==========================================
/**
* 獲得下一個ID (該方法是線程安全的)
*
* @return SnowflakeId
*/
public synchronized long nextId() {
long timestamp = timeGen();
//如果當前時間小於上一次ID生成的時間戳,說明系統時鍾回退過這個時候應當拋出異常
if (timestamp < lastTimestamp) {
throw new RuntimeException(
String.format("Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - timestamp));
}
//如果是同一時間生成的,則進行毫秒內序列
if (lastTimestamp == timestamp) {
sequence = (sequence + 1) & sequenceMask;
//毫秒內序列溢出
if (sequence == 0) {
//阻塞到下一個毫秒,獲得新的時間戳
timestamp = tilNextMillis(lastTimestamp);
}
}
//時間戳改變,毫秒內序列重置
else {
sequence = 0L;
}
//上次生成ID的時間截
lastTimestamp = timestamp;
//移位並通過或運算拼到一起組成64位的ID
return ((timestamp - twepoch) << timestampLeftShift) //
| (datacenterId << datacenterIdShift) //
| (workerId << workerIdShift) //
| sequence;
}
/**
* 阻塞到下一個毫秒,直到獲得新的時間戳
*
* @param lastTimestamp 上次生成ID的時間截
* @return 當前時間戳
*/
protected long tilNextMillis(long lastTimestamp) {
long timestamp = timeGen();
while (timestamp <= lastTimestamp) {
timestamp = timeGen();
}
return timestamp;
}
/**
* 返回以毫秒為單位的當前時間
*
* @return 當前時間(毫秒)
*/
protected long timeGen() {
return System.currentTimeMillis();
}
}
二 交給Ioc容器管理
package spring.cloud.common.config;
import org.apache.commons.lang3.RandomUtils;
import org.apache.commons.lang3.StringUtils;
import org.apache.commons.lang3.SystemUtils;
import org.apache.logging.log4j.Logger;
import org.apache.logging.log4j.LogManager;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.context.annotation.Primary;
import spring.cloud.common.util.id.SnowflakeIdWorker;
import java.net.Inet4Address;
import java.net.UnknownHostException;
/**
* 網上的教程一般存在兩個問題:
* 1. 機器ID(5位)和數據中心ID(5位)配置沒有解決,分布式部署的時候會使用相同的配置,任然有ID重復的風險。
* 2. 使用的時候需要實例化對象,沒有形成開箱即用的工具類。
*
* 本文針對上面兩個問題進行解決,筆者的解決方案是,workId使用服務器hostName生成,
* dataCenterId使用IP生成,這樣可以最大限度防止10位機器碼重復,但是由於兩個ID都不能超過32,
* 只能取余數,還是難免產生重復,但是實際使用中,hostName和IP的配置一般連續或相近,
* 只要不是剛好相隔32位,就不會有問題,況且,hostName和IP同時相隔32的情況更加是幾乎不可能
* 的事,平時做的分布式部署,一般也不會超過10台容器。使用上面的方法可以零配置使用雪花算法,
* 雪花算法10位機器碼的設定理論上可以有1024個節點,生產上使用docker配置一般是一次編譯,
* 然后分布式部署到不同容器,不會有不同的配置,這里不知道其他公司是如何解決的,即使有方法
* 使用一套配置,然后運行時根據不同容器讀取不同的配置,但是給每個容器編配ID,1024個
* (大部分情況下沒有這么多),似乎也不太可能,此問題留待日后解決后再行補充。
*/
@Configuration
public class IdWorkerConfiguration {
Logger logger = LogManager.getLogger();
@Value("${id.work:noWorkId}")
private String workId;
@Value("${id.dateSource:noDateSource}")
private String dateSource;
@Bean
@Primary
public SnowflakeIdWorker idWorker(){
return new SnowflakeIdWorker(getWorkFromConfig(),getDateFromConfig());
}
private Long getWorkFromConfig() {
if ("noWorkId".equals(workId)) {
return getWorkId();
} else {
//將workId轉換為Long
return 2L;
}
}
private Long getDateFromConfig() {
if ("noDateSource".equals(dateSource)) {
return getDataCenterId();
} else {
//將workId轉換為Long
return 2L;
}
}
private Long getWorkId(){
try {
String hostAddress = Inet4Address.getLocalHost().getHostAddress();
int[] ints = StringUtils.toCodePoints(hostAddress);
int sums = 0;
for(int b : ints){
sums += b;
}
return (long)(sums % 32);
} catch (UnknownHostException e) {
// 如果獲取失敗,則使用隨機數備用
return RandomUtils.nextLong(0,31);
}
}
private Long getDataCenterId(){
int[] ints = StringUtils.toCodePoints(SystemUtils.getHostName());
int sums = 0;
for (int i: ints) {
sums += i;
}
return (long)(sums % 32);
}
}
