使用雪花算法為分布式下全局ID、訂單號等簡單解決方案考慮到時鍾回撥


1.snowflake簡介
        互聯網快速發展的今天,分布式應用系統已經見怪不怪,在分布式系統中,我們需要各種各樣的ID,既然是ID那么必然是要保證全局唯一,除此之外,不同當業務還需要不同的特性,比如像並發巨大的業務要求ID生成效率高,吞吐大;比如某些銀行類業務,需要按每日日期制定交易流水號;又比如我們希望用戶的ID是隨機的,無序的,純數字的,且位數長度是小於10位的。等等,不同的業務場景需要的ID特性各不一樣,於是,衍生了各種ID生成器,但大多數利用數據庫控制ID的生成,性能受數據庫並發能力限制,那么有沒有一款不需要依賴任何中間件(如數據庫,分布式緩存服務等)的ID生成器呢?本着取之於開源,用之於開源的原則,今天,特此介紹Twitter開源的一款分布式自增ID算法snowflake,並附上算法原理推導和演算過程!

snowflake算法是一款本地生成的(ID生成過程不依賴任何中間件,無網絡通信),保證ID全局唯一,並且ID總體有序遞增,性能每秒生成300w+。

 

  • 1bit:一般是符號位,不做處理

  • 41bit:用來記錄時間戳,這里可以記錄69年,如果設置好起始時間比如今年是2018年,那么可以用到2089年,到時候怎么辦?要是這個系統能用69年,我相信這個系統早都重構了好多次了。

  • 10bit:10bit用來記錄機器ID,總共可以記錄1024台機器,一般用前5位代表數據中心ID,后面5位是某個數據中心的機器ID

  • 12bit:循環位,用來對同一個毫秒之內產生不同的ID,12位可以最多記錄4095個,也就是在同一個機器同一毫秒最多記錄4095個,多余的需要進行等待下毫秒。

    <p>總體來說,在工作節點達到1024頂配的場景下,SnowFlake算法在同一毫秒內最多可以生成多少個全局唯一ID呢?這是一個簡單的乘法:</p>
    
    <p>同一毫秒的ID數量 = 1024 X 4096 = 4194304</p>
    
    <p>400多萬個ID,這個數字在絕大多數並發場景下都是夠用的。</p>
    
    <p>snowflake 算法中,第三個部分是工作機器ID,可以結合上一節的命名方法,並通過Zookeeper管理workId,免去手動頻繁修改集群節點,去配置機器ID的麻煩。</p>
    </li>
    

上面只是一個將64bit划分的標准,當然也不一定這么做,可以根據不同業務的具體場景來划分,比如下面給出一個業務場景:

  • 服務目前QPS10萬,預計幾年之內會發展到百萬。

  • 當前機器三地部署,上海,北京,深圳都有。

  • 當前機器10台左右,預計未來會增加至百台。

這個時候我們根據上面的場景可以再次合理的划分62bit,QPS幾年之內會發展到百萬,那么每毫秒就是千級的請求,目前10台機器那么每台機器承擔百級的請求,為了保證擴展,后面的循環位可以限制到1024,也就是2^10,那么循環位10位就足夠了。

機器三地部署我們可以用3bit總共8來表示機房位置,當前的機器10台,為了保證擴展到百台那么可以用7bit 128來表示,時間位依然是41bit,那么還剩下64-10-3-7-41-1 = 2bit,還剩下2bit可以用來進行擴展。

適用場景:當我們需要無序不能被猜測的ID,並且需要一定高性能,且需要long型,那么就可以使用我們雪花算法。比如常見的訂單ID,用雪花算法別人就發猜測你每天的訂單量是多少。

 

上面定義了雪花算法的實現,在nextId中是我們生成雪花算法的關鍵。

2.防止時鍾回撥

因為機器的原因會發生時間回撥,我們的雪花算法是強依賴我們的時間的,如果時間發生回撥,有可能會生成重復的ID,在我們上面的nextId中我們用當前時間和上一次的時間進行判斷,如果當前時間小於上一次的時間那么肯定是發生了回撥,普通的算法會直接拋出異常,這里我們可以對其進行優化,一般分為兩個情況:

  • 如果時間回撥時間較短,比如配置5ms以內,那么可以直接等待一定的時間,讓機器的時間追上來。

  • 如果時間的回撥時間較長,我們不能接受這么長的阻塞等待,那么又有兩個策略:

  1. 直接拒絕,拋出異常,打日志,通知RD時鍾回滾。

  2. 利用擴展位,上面我們討論過不同業務場景位數可能用不到那么多,那么我們可以把擴展位數利用起來了,比如當這個時間回撥比較長的時候,我們可以不需要等待,直接在擴展位加1。2位的擴展位允許我們有3次大的時鍾回撥,一般來說就夠了,如果其超過三次我們還是選擇拋出異常,打日志。

通過上面的幾種策略可以比較的防護我們的時鍾回撥,防止出現回撥之后大量的異常出現。下面是修改之后的代碼,這里修改了時鍾回撥的邏輯:

最終代碼如下:


   
   
  
  
          
  1. import org.apache.commons.lang3.RandomUtils;
  2. import org.apache.commons.lang3.StringUtils;
  3. import org.slf4j.Logger;
  4. import org.slf4j.LoggerFactory;
  5. import java.lang.management.ManagementFactory;
  6. import java.net.InetAddress;
  7. import java.net.NetworkInterface;
  8. import java.net.UnknownHostException;
  9. import java.text.SimpleDateFormat;
  10. import java.util.*;
  11. import java.util.concurrent.ConcurrentHashMap;
  12. import java.util.concurrent.CountDownLatch;
  13. import java.util.concurrent.TimeUnit;
  14. import java.util.concurrent.locks.LockSupport;
  15. /**
  16. * 分布式全局ID雪花算法解決方案
  17. *
  18. * 防止時鍾回撥
  19. * 因為機器的原因會發生時間回撥,我們的雪花算法是強依賴我們的時間的,如果時間發生回撥,
  20. * 有可能會生成重復的ID,在我們上面的nextId中我們用當前時間和上一次的時間進行判斷,
  21. * 如果當前時間小於上一次的時間那么肯定是發生了回撥,
  22. * 普通的算法會直接拋出異常,這里我們可以對其進行優化,一般分為兩個情況:
  23. * 如果時間回撥時間較短,比如配置5ms以內,那么可以直接等待一定的時間,讓機器的時間追上來。
  24. * 如果時間的回撥時間較長,我們不能接受這么長的阻塞等待,那么又有兩個策略:
  25. * 直接拒絕,拋出異常,打日志,通知RD時鍾回滾。
  26. * 利用擴展位,上面我們討論過不同業務場景位數可能用不到那么多,那么我們可以把擴展位數利用起來了,
  27. * 比如當這個時間回撥比較長的時候,我們可以不需要等待,直接在擴展位加1。
  28. * 2位的擴展位允許我們有3次大的時鍾回撥,一般來說就夠了,如果其超過三次我們還是選擇拋出異常,打日志。
  29. * 通過上面的幾種策略可以比較的防護我們的時鍾回撥,防止出現回撥之后大量的異常出現。下面是修改之后的代碼,這里修改了時鍾回撥的邏輯:
  30. */
  31. public class SnowflakeIdFactory {
  32. private static final Logger log = LoggerFactory.getLogger(SnowflakeIdFactory.class);
  33. /**
  34. * EPOCH是服務器第一次上線時間點, 設置后不允許修改
  35. * 2018/9/29日,從此時開始計算,可以用到2089年
  36. */
  37. private static long EPOCH = 1538211907857L;
  38. /**
  39. * 每台workerId服務器有3個備份workerId, 備份workerId數量越多, 可靠性越高, 但是可部署的sequence ID服務越少
  40. */
  41. private static final long BACKUP_COUNT = 3;
  42. /**
  43. * worker id 的bit數,最多支持8192個節點
  44. */
  45. private static final long workerIdBits = 5L;
  46. /**
  47. * 數據中心標識位數
  48. */
  49. private static final long dataCenterIdBits = 5L;
  50. /**
  51. * 序列號,支持單節點最高每毫秒的最大ID數4096
  52. * 毫秒內自增位
  53. */
  54. private static final long sequenceBits = 12L;
  55. /**
  56. * 機器ID偏左移12位
  57. */
  58. private static final long workerIdShift = sequenceBits;
  59. /**
  60. * 數據中心ID左移17位(12+5)
  61. */
  62. private static final long dataCenterIdShift = sequenceBits + workerIdBits;
  63. /**
  64. * 時間毫秒左移22位(5+5+12)
  65. */
  66. private static final long timestampLeftShift = sequenceBits + workerIdBits + dataCenterIdBits;
  67. /**
  68. * sequence掩碼,確保sequnce不會超出上限
  69. * 最大的序列號,4096
  70. * -1 的補碼(二進制全1)右移12位, 然后取反
  71. * 生成序列的掩碼,這里為4095 (0b111111111111=0xfff=4095)
  72. */
  73. private static final long sequenceMask = -1L ^ ( -1L << sequenceBits);
  74. //private final static long sequenceMask = ~(-1L << sequenceBits);
  75. /**
  76. * 實際的最大workerId的值 結果是31,8091
  77. * workerId原則上上限為1024, 但是需要為每台sequence服務預留BACKUP_AMOUNT個workerId,
  78. * (這個移位算法可以很快的計算出幾位二進制數所能表示的最大十進制數)
  79. */
  80. //private static final long maxWorkerId = (1L << workerIdBits) / (BACKUP_COUNT + 1);
  81. //原來代碼 -1 的補碼(二進制全1)右移13位, 然后取反
  82. private static final long maxWorkerId = -1L ^ ( -1L << workerIdBits);
  83. //private final static long maxWorkerId = ~(-1L << workerIdBits);
  84. /**
  85. * 支持的最大數據標識id,結果是31
  86. */
  87. private static final long maxDataCenterId = -1L ^ ( -1L << dataCenterIdBits);
  88. /**
  89. * long workerIdBits = 5L;
  90. * -1L 的二進制: 1111111111111111111111111111111111111111111111111111111111111111
  91. * -1L<<workerIdBits = -32 ,二進制: 1111111111111111111111111111111111111111111111111111111111100000
  92. * workerMask= -1L ^ -32 = 31, 二進制: 11111
  93. */
  94. private static long workerMask= -1L ^ ( -1L << workerIdBits);
  95. //進程編碼
  96. private long processId = 1L;
  97. private static long processMask= -1L ^ ( -1L << dataCenterIdBits);
  98. /**
  99. * 工作機器ID(0~31)
  100. * snowflake算法給workerId預留了10位,即workId的取值范圍為[0, 1023],
  101. * 事實上實際生產環境不大可能需要部署1024個分布式ID服務,
  102. * 所以:將workerId取值范圍縮小為[0, 511],[512, 1023]
  103. * 這個范圍的workerId當做備用workerId。workId為0的備用workerId是512,
  104. * workId為1的備用workerId是513,以此類推
  105. */
  106. private static long workerId;
  107. /**
  108. * 數據中心ID(0~31)
  109. */
  110. private long dataCenterId;
  111. /**
  112. * 當前毫秒生成的序列
  113. */
  114. private long sequence = 0L;
  115. /**
  116. * 上次生成ID的時間戳
  117. */
  118. private long lastTimestamp = -1L;
  119. private long extension = 0L;
  120. private long maxExtension = 0L;
  121. /**
  122. * 保留workerId和lastTimestamp, 以及備用workerId和其對應的lastTimestamp
  123. */
  124. private static Map<Long, Long> workerIdLastTimeMap = new ConcurrentHashMap<>();
  125. /**
  126. * 最大容忍時間, 單位毫秒, 即如果時鍾只是回撥了該變量指定的時間, 那么等待相應的時間即可;
  127. * 考慮到sequence服務的高性能, 這個值不易過大
  128. */
  129. private static final long MAX_BACKWARD_MS = 3;
  130. private static SnowflakeIdFactory idWorker;
  131. static {
  132. idWorker = new SnowflakeIdFactory();
  133. }
  134. static {
  135. Calendar calendar = Calendar.getInstance();
  136. calendar. set( 2018, Calendar.NOVEMBER, 1);
  137. calendar. set(Calendar.HOUR_OF_DAY, 0);
  138. calendar. set(Calendar.MINUTE, 0);
  139. calendar. set(Calendar.SECOND, 0);
  140. calendar. set(Calendar.MILLISECOND, 0);
  141. // EPOCH是服務器第一次上線時間點, 設置后不允許修改
  142. EPOCH = calendar.getTimeInMillis();
  143. // 初始化workerId和其所有備份workerId與lastTimestamp
  144. // 假設workerId為0且BACKUP_AMOUNT為4, 那么map的值為: {0:0L, 256:0L, 512:0L, 768:0L}
  145. // 假設workerId為2且BACKUP_AMOUNT為4, 那么map的值為: {2:0L, 258:0L, 514:0L, 770:0L}
  146. /* for (int i = 0; i<= BACKUP_COUNT; i++){
  147. workerIdLastTimeMap.put(workerId + (i * maxWorkerId), 0L);
  148. }*/
  149. }
  150. //成員類,IdGenUtils的實例對象的保存域
  151. private static class SnowflakeIdGenHolder {
  152. private static final SnowflakeIdFactory instance = new SnowflakeIdFactory();
  153. }
  154. //外部調用獲取IdGenUtils的實例對象,確保不可變
  155. public static SnowflakeIdFactory getInstance(){
  156. return SnowflakeIdGenHolder.instance;
  157. }
  158. /**
  159. * 靜態工具類
  160. *
  161. * @return
  162. */
  163. public static Long generateId(){
  164. long id = idWorker.nextId();
  165. return id;
  166. }
  167. //初始化構造,無參構造有參函數,默認節點都是0
  168. public SnowflakeIdFactory(){
  169. //this(0L, 0L);
  170. this.dataCenterId = getDataCenterId(maxDataCenterId);
  171. //獲取機器編碼
  172. this.workerId = getWorkerId(dataCenterId, maxWorkerId);
  173. }
  174. /**
  175. * 構造函數
  176. * @param workerId 工作ID (0~31)
  177. * @param dataCenterId 數據中心ID (0~31)
  178. */
  179. public SnowflakeIdFactory(long workerId, long dataCenterId) {
  180. if (workerId > maxWorkerId || workerId < 0) {
  181. throw new IllegalArgumentException(String.format( "worker Id can't be greater than %d or less than 0", maxWorkerId));
  182. }
  183. if (dataCenterId > maxDataCenterId || dataCenterId < 0) {
  184. throw new IllegalArgumentException(String.format( "datacenter Id can't be greater than %d or less than 0", maxDataCenterId));
  185. }
  186. this.workerId = workerId;
  187. this.dataCenterId = dataCenterId;
  188. }
  189. /**
  190. * 獲取帶自定義前綴的全局唯一編碼
  191. */
  192. public String getStrCodingByPrefix(String prefix){
  193. Long ele = this.nextId();
  194. return prefix + ele.toString();
  195. }
  196. /**
  197. * 獲得下一個ID (該方法是線程安全的)
  198. * 在單節點上獲得下一個ID,使用Synchronized控制並發,而非CAS的方式,
  199. * 是因為CAS不適合並發量非常高的場景。
  200. *
  201. * 考慮時鍾回撥
  202. * 缺陷: 如果連續兩次時鍾回撥, 可能還是會有問題, 但是這種概率極低極低
  203. * @return
  204. */
  205. public synchronized long nextId() {
  206. long currentTimestamp = timeGen();
  207. // 當發生時鍾回撥時
  208. if (currentTimestamp < lastTimestamp){
  209. // 如果時鍾回撥在可接受范圍內, 等待即可
  210. long offset = lastTimestamp - currentTimestamp;
  211. if ( offset <= MAX_BACKWARD_MS){
  212. try {
  213. //睡(lastTimestamp - currentTimestamp)ms讓其追上
  214. LockSupport.parkNanos(TimeUnit.MILLISECONDS.toNanos(offset));
  215. //時間偏差大小小於5ms,則等待兩倍時間
  216. //wait(offset << 1);
  217. //Thread.sleep(waitTimestamp);
  218. currentTimestamp = timeGen();
  219. //如果時間還小於當前時間,那么利用擴展字段加1
  220. //或者是采用拋異常並上報
  221. if (currentTimestamp < lastTimestamp) {
  222. //擴展字段
  223. //extension += 1;
  224. //if (extension > maxExtension) {
  225. //服務器時鍾被調整了,ID生成器停止服務.
  226. throw new RuntimeException(String.format( "Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - currentTimestamp));
  227. //}
  228. }
  229. } catch (Exception e) {
  230. e.printStackTrace();
  231. }
  232. } else {
  233. //擴展字段
  234. /*extension += 1;
  235. if (extension > maxExtension) {
  236. //服務器時鍾被調整了,ID生成器停止服務.
  237. throw new RuntimeException(String.format("Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - currentTimestamp));
  238. }*/
  239. tryGenerateKeyOnBackup(currentTimestamp);
  240. }
  241. }
  242. //對時鍾回撥簡單處理
  243. /* if (currentTimestamp < lastTimestamp) {
  244. //服務器時鍾被調整了,ID生成器停止服務.
  245. throw new RuntimeException(String.format("Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - currentTimestamp));
  246. }*/
  247. // 如果和最后一次請求處於同一毫秒, 那么sequence+1
  248. if (lastTimestamp == currentTimestamp) {
  249. // 如果當前生成id的時間還是上次的時間,那么對sequence序列號進行+1
  250. sequence = (sequence + 1) & sequenceMask;
  251. if (sequence == 0) {
  252. //自旋等待到下一毫秒
  253. currentTimestamp = waitUntilNextTime(lastTimestamp);
  254. }
  255. //判斷是否溢出,也就是每毫秒內超過4095,當為4096時,與sequenceMask相與,sequence就等於0
  256. /*if (sequence == sequenceMask) {
  257. // 當前毫秒生成的序列數已經大於最大值,那么阻塞到下一個毫秒再獲取新的時間戳
  258. currentTimestamp = this.waitUntilNextTime(lastTimestamp);
  259. }*/
  260. } else {
  261. // 如果是一個更近的時間戳, 那么sequence歸零
  262. sequence = 0L;
  263. }
  264. // 更新上次生成id的時間戳
  265. lastTimestamp = currentTimestamp;
  266. // 更新map中保存的workerId對應的lastTimestamp
  267. //workerIdLastTimeMap.put(this.workerId, lastTimestamp);
  268. if ( log.isDebugEnabled()) {
  269. log.debug( "{}-{}-{}", new SimpleDateFormat( "yyyy-MM-dd HH:mm:ss.SSS").format( new Date(lastTimestamp)), workerId, sequence);
  270. }
  271. // 進行移位操作生成int64的唯一ID
  272. //時間戳右移動23位
  273. long timestamp = (currentTimestamp - EPOCH) << timestampLeftShift;
  274. //workerId 右移動10位
  275. long workerId = this.workerId << workerIdShift;
  276. //dataCenterId 右移動(sequenceBits + workerIdBits = 17位)
  277. long dataCenterId = this.dataCenterId << dataCenterIdShift;
  278. return timestamp | dataCenterId | workerId | sequence;
  279. }
  280. /**
  281. * 嘗試在workerId的備份workerId上生成
  282. * 核心優化代碼在方法tryGenerateKeyOnBackup()中,BACKUP_COUNT即備份workerId數越多,
  283. * sequence服務避免時鍾回撥影響的能力越強,但是可部署的sequence服務越少,
  284. * 設置BACKUP_COUNT為3,最多可以部署1024/(3+1)即256個sequence服務,完全夠用,
  285. * 抗時鍾回撥影響的能力也得到非常大的保障。
  286. * @param currentMillis 當前時間
  287. */
  288. private long tryGenerateKeyOnBackup(long currentMillis){
  289. // 遍歷所有workerId(包括備用workerId, 查看哪些workerId可用)
  290. for (Map.Entry<Long, Long> entry:workerIdLastTimeMap.entrySet()){
  291. this.workerId = entry.getKey();
  292. // 取得備用workerId的lastTime
  293. Long tempLastTime = entry.getValue();
  294. lastTimestamp = tempLastTime==null? 0L:tempLastTime;
  295. // 如果找到了合適的workerId
  296. if (lastTimestamp<=currentMillis){
  297. return lastTimestamp;
  298. }
  299. }
  300. // 如果所有workerId以及備用workerId都處於時鍾回撥, 那么拋出異常
  301. throw new IllegalStateException( "Clock is moving backwards, current time is "
  302. +currentMillis+ " milliseconds, workerId map = " + workerIdLastTimeMap);
  303. }
  304. /**
  305. * 阻塞到下一個毫秒,直到獲得新的時間戳
  306. * @param lastTimestamp 上次生成ID的時間截
  307. * @return 當前時間戳
  308. */
  309. protected long waitUntilNextTime(long lastTimestamp) {
  310. long timestamp = timeGen();
  311. while (timestamp <= lastTimestamp) {
  312. timestamp = timeGen();
  313. }
  314. return timestamp;
  315. }
  316. protected long timeGen() {
  317. return System.currentTimeMillis();
  318. }
  319. /**
  320. * 獲取WorkerId
  321. * @param dataCenterId
  322. * @param maxWorkerId
  323. * @return
  324. */
  325. protected static long getWorkerId(long dataCenterId, long maxWorkerId) {
  326. StringBuffer mpid = new StringBuffer();
  327. mpid.append(dataCenterId);
  328. String name = ManagementFactory.getRuntimeMXBean().getName();
  329. if (!name.isEmpty()) {
  330. // GET jvmPid
  331. mpid.append(name.split( "@")[ 0]);
  332. }
  333. // MAC + PID 的 hashcode 獲取16個低位
  334. return (mpid.toString().hashCode() & 0xffff) % (maxWorkerId + 1);
  335. }
  336. /**
  337. * 獲取機器編碼 用來做數據ID
  338. * 數據標識id部分 通常不建議采用下面的MAC地址方式,
  339. * 因為用戶通過破解很容易拿到MAC進行破壞
  340. */
  341. protected static long getDataCenterId(long tempMaxDataCenterId) {
  342. if (tempMaxDataCenterId < 0L || tempMaxDataCenterId > maxDataCenterId) {
  343. tempMaxDataCenterId = maxDataCenterId;
  344. }
  345. long id = 0L;
  346. try {
  347. InetAddress ip = InetAddress.getLocalHost();
  348. NetworkInterface network = NetworkInterface.getByInetAddress(ip);
  349. if (network == null) {
  350. id = 1L;
  351. } else {
  352. byte[] mac = network.getHardwareAddress();
  353. id = (( 0x000000FF & ( long) mac[mac.length - 1])
  354. | ( 0x0000FF00 & ((( long) mac[mac.length - 2]) << 8))) >> 6;
  355. id = id % (tempMaxDataCenterId + 1);
  356. }
  357. } catch (Exception e) {
  358. System.out.println( " getDatacenterId: " + e.getMessage());
  359. }
  360. return id;
  361. }
  362. public static void testProductIdByMoreThread(int dataCenterId, int workerId, int n) throws InterruptedException {
  363. List<Thread> tlist = new ArrayList<>();
  364. Set<Long> setAll = new HashSet<>();
  365. CountDownLatch cdLatch = new CountDownLatch( 10);
  366. long start = System.currentTimeMillis();
  367. int threadNo = dataCenterId;
  368. Map<String,SnowflakeIdFactory> idFactories = new HashMap<>();
  369. for( int i= 0;i< 10;i++){
  370. //用線程名稱做map key.
  371. idFactories.put( "snowflake"+i, new SnowflakeIdFactory(workerId, threadNo++));
  372. }
  373. for( int i= 0;i< 10;i++){
  374. Thread temp = new Thread( new Runnable() {
  375. @Override
  376. public void run() {
  377. Set<Long> setId = new HashSet<>();
  378. SnowflakeIdFactory idWorker = idFactories.get(Thread.currentThread().getName());
  379. for( int j= 0;j<n;j++){
  380. setId.add(idWorker.nextId());
  381. }
  382. synchronized (setAll){
  383. setAll.addAll(setId);
  384. log.info( "{}生產了{}個id,並成功加入到setAll中.",Thread.currentThread().getName(),n);
  385. }
  386. cdLatch.countDown();
  387. }
  388. }, "snowflake"+i);
  389. tlist.add(temp);
  390. }
  391. for( int j= 0;j< 10;j++){
  392. tlist.get(j).start();
  393. }
  394. cdLatch.await();
  395. long end1 = System.currentTimeMillis() - start;
  396. log.info( "共耗時:{}毫秒,預期應該生產{}個id, 實際合並總計生成ID個數:{}",end1, 10*n,setAll.size());
  397. }
  398. public static void testProductId(int dataCenterId, int workerId, int n){
  399. SnowflakeIdFactory idWorker = new SnowflakeIdFactory(workerId, dataCenterId);
  400. SnowflakeIdFactory idWorker2 = new SnowflakeIdFactory(workerId+ 1, dataCenterId);
  401. Set<Long> setOne = new HashSet<>();
  402. Set<Long> setTow = new HashSet<>();
  403. long start = System.currentTimeMillis();
  404. for ( int i = 0; i < n; i++) {
  405. setOne.add(idWorker.nextId()); //加入set
  406. }
  407. long end1 = System.currentTimeMillis() - start;
  408. log.info( "第一批ID預計生成{}個,實際生成{}個<<<<*>>>>共耗時:{}",n,setOne.size(),end1);
  409. for ( int i = 0; i < n; i++) {
  410. setTow.add(idWorker2.nextId()); //加入set
  411. }
  412. long end2 = System.currentTimeMillis() - start;
  413. log.info( "第二批ID預計生成{}個,實際生成{}個<<<<*>>>>共耗時:{}",n,setTow.size(),end2);
  414. setOne.addAll(setTow);
  415. log.info( "合並總計生成ID個數:{}",setOne.size());
  416. }
  417. public static void testPerSecondProductIdNums(){
  418. SnowflakeIdFactory idWorker = new SnowflakeIdFactory( 1, 2);
  419. long start = System.currentTimeMillis();
  420. int count = 0;
  421. for ( int i = 0; System.currentTimeMillis()-start< 1000; i++,count=i) {
  422. /** 測試方法一: 此用法純粹的生產ID,每秒生產ID個數為300w+ */
  423. idWorker.nextId();
  424. /** 測試方法二: 在log中打印,同時獲取ID,此用法生產ID的能力受限於log.error()的吞吐能力.
  425. * 每秒徘徊在10萬左右. */
  426. //log.error("{}",idWorker.nextId());
  427. }
  428. long end = System.currentTimeMillis()-start;
  429. System.out.println(end);
  430. System.out.println(count);
  431. }
  432. public static void main(String[] args) {
  433. /** case1: 測試每秒生產id個數?
  434. * 結論: 每秒生產id個數300w+ */
  435. testPerSecondProductIdNums();
  436. /** case2: 單線程-測試多個生產者同時生產N個id,驗證id是否有重復?
  437. * 結論: 驗證通過,沒有重復. */
  438. //testProductId(1,2,10000);//驗證通過!
  439. //testProductId(1,2,20000);//驗證通過!
  440. /** case3: 多線程-測試多個生產者同時生產N個id, 全部id在全局范圍內是否會重復?
  441. * 結論: 驗證通過,沒有重復. */
  442. /* try {
  443. testProductIdByMoreThread(1,2,100000);//單機測試此場景,性能損失至少折半!
  444. } catch (InterruptedException e) {
  445. e.printStackTrace();
  446. }*/
  447. }
  448. }

本文鏈接:https://blog.csdn.net/ycb1689/article/details/89331634


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM