ASCII 碼
計算機內部,所有信息最終都是一個二進制值
。每一個二進制位(bit)有 0 和 1 兩種狀態,因此八個二進制位就可以組合出 256 種狀態,這被稱為一個字節(byte)。也就是說,一個字節一共可以用來表示 256 種不同的狀態,每一個狀態對應一個符號,就是 256 個符號,從 00000000 到 11111111。
上個世紀 60 年代,美國制定了一套字符編碼,對英語字符與二進制位之間的關系,做了統一規定。這被稱為 ASCII 碼,一直沿用至今。
ASCII 碼一共規定了 128 個字符的編碼,比如空格 SPACE 是 32(二進制 00100000),大寫的字母 A 是 65(二進制 01000001)。這 128 個符號(包括 32 個不能打印出來的控制符號),只占用了一個字節的后面 7 位,最前面的一位統一規定為 0
。
非 ASCII 編碼
英語用 128 個符號編碼就夠了,但是用來表示其他語言
,128 個符號是不夠的。比如,在法語中,字母上方有注音符號,它就無法用 ASCII 碼表示。於是,一些歐洲國家就決定,利用字節中閑置的最高位編入新的符號。比如,法語中的é的編碼為 130(二進制 10000010)。這樣一來,這些歐洲國家使用的編碼體系,可以表示最多 256 個符號。
但是,這里又出現了新的問題。不同的國家有不同的字母,因此,哪怕它們都使用 256 個符號的編碼方式,代表的字母卻不一樣。比如,130 在法語編碼中代表了é,在希伯來語編碼中卻代表了字母 Gimel (ג),在俄語編碼中又會代表另一個符號。但是不管怎樣,所有這些編碼方式中,0--127 表示的符號是一樣的,不一樣的只是 128--255 的這一段。
至於亞洲國家的文字,使用的符號就更多了,漢字就多達 10 萬左右
。一個字節只能表示 256 種符號,肯定是不夠的,就必須使用多個字節表達一個符號。比如,簡體中文常見的編碼方式是 GB2312
,使用兩個字節表示一個漢字
,所以理論上最多可以表示 256 x 256 = 65536 個符號。
中文編碼的問題需要專文討論,這篇筆記不涉及。這里只指出,雖然都是用多個字節表示一個符號,但是 GB 類的漢字編碼與后文的 Unicode 和 UTF-8 是毫無關系的。
Unicode
正如上一節所說,世界上存在着多種編碼方式,同一個二進制數字可以被解釋成不同的符號。因此,要想打開一個文本文件,就必須知道它的編碼方式,否則用錯誤的編碼方式解讀,就會出現亂碼。為什么電子郵件常常出現亂碼?就是因為發信人和收信人使用的編碼方式不一樣。
可以想象,如果有一種編碼,將世界上所有的符號都納入其中。每一個符號都給予一個獨一無二的編碼
,那么亂碼問題就會消失。這就是 Unicode
,就像它的名字都表示的,這是一種所有符號的編碼
。
Unicode 當然是一個很大的集合,現在的規模可以容納 100 多萬個符號。每個符號的編碼都不一樣,比如,U+0639 表示阿拉伯字母 Ain,U+0041 表示英語的大寫字母 A,U+4E25 表示漢字嚴。具體的符號對應表,可以查詢 unicode.org,或者專門的 漢字對應表。
問題
需要注意的是,Unicode 只是一個符號集,它只規定了符號的二進制代碼,卻沒有規定
這個二進制代碼應該如何存儲
。
比如,漢字嚴
的 Unicode 是十六進制數 4E25
,轉換成二進制數足足有 15 位(100111000100101),也就是說,這個符號的表示至少需要 2 個字節。表示其他更大的符號,可能需要 3 個字節或者 4 個字節,甚至更多。
這里就有兩個嚴重的問題:
- 如何才能區別 Unicode 和 ASCII ?計算機怎么知道三個字節表示一個符號,而不是分別表示三個符號呢?
- 我們已經知道,英文字母只用一個字節表示就夠了,如果 Unicode 統一規定,每個符號用三個或四個字節表示,那么每個英文字母前都必然有二到三個字節是 0,這對於存儲來說是極大的浪費,文本文件的大小會因此大出二三倍,這是無法接受的。
它們造成的結果是:
- 1)出現了 Unicode 的多種存儲方式,也就是說有許多種不同的二進制格式,可以用來表示 Unicode。
- 2)Unicode 在很長一段時間內無法推廣,直到互聯網的出現。
UTF-8
互聯網的普及,強烈要求出現一種統一的編碼方式。UTF-8 就是在互聯網上使用最廣的一種 Unicode 的實現方式。其他實現方式還包括 UTF-16(字符用兩個字節或四個字節表示)和 UTF-32(字符用四個字節表示),不過在互聯網上基本不用。重復一遍,這里的關系是,UTF-8 是 Unicode 的實現方式之一
。
UTF-8 最大的一個特點,就是它是一種變長的編碼方式
。它可以使用 1~4 個字節表示一個符號
,根據不同的符號而變化字節長度。
UTF-8 的編碼規則很簡單,只有二條:
1)對於單字節的符號
,字節的第一位設為 0,后面 7 位為這個符號的 Unicode 碼。因此對於英語字母
,UTF-8 編碼和 ASCII 碼是相同的
。
2)對於 n 字節的符號
(n > 1),第一個字節的前 n 位都設為 1
,第 n + 1 位設為 0
,后面字節的前兩位一律設為 10。剩下的沒有提及的二進制位,全部為這個符號的 Unicode 碼。
下表總結了編碼規則,字母 x 表示可用編碼的位。
Unicode 符號范圍 | UTF-8 編碼方式
(十六進制) | (二進制)
----------------------+---------------------------------------------
0000 0000-0000 007F | 0xxxxxxx
0000 0080-0000 07FF | 110xxxxx 10xxxxxx
0000 0800-0000 FFFF | 1110xxxx 10xxxxxx 10xxxxxx
0001 0000-0010 FFFF | 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
跟據上表,解讀 UTF-8 編碼非常簡單。如果一個字節的第一位是 0,則這個字節單獨就是一個字符;如果第一位是 1,則連續有多少個 1,就表示當前字符占用多少個字節。
下面,還是以漢字嚴為例,演示如何實現 UTF-8 編碼。
嚴的 Unicode 是 4E25(100111000100101),根據上表,可以發現 4E25 處在第三行的范圍內(0000 0800 - 0000 FFFF),因此嚴的 UTF-8 編碼需要三個字節,即格式是 1110xxxx 10xxxxxx 10xxxxxx。然后,從嚴的最后一個二進制位開始,依次從后向前填入格式中的 x,多出的位補 0。這樣就得到了,嚴的 UTF-8 編碼是 11100100 10111000 10100101,轉換成十六進制就是 E4B8A5。
程序驗證
使用 Java 單元測試,測試漢字“嚴”的 UTF-8 編碼,測試代碼如下:
@Test
public void testUtf8() {
String s = "嚴";
byte[] bytes = s.getBytes(StandardCharsets.UTF_8);
System.out.println(Arrays.toString(bytes));
for (byte b : bytes) {
System.out.print(Integer.toBinaryString(b).substring(24, 32) + " ");
}
}
輸出結果為:
[-28, -72, -91]
11100100 10111000 10100101
我們可以看到和上述分析一致。編碼為11100100 10111000 10100101
,第一個字節 11100100,前三位為 1,標識這個 Unicode 一共有 3 位。11100100 去掉前 3 位,10111000 去掉前 2 位,10100101 去掉前 2 位,最終字符編碼為 1001110 00100101,即為最終的 Unicode 編碼 4E25。
總結
- ASCII 編碼只能表示 127 個字符,表示英文足夠,但是無法表示其他語言字符;
- Unicode 是所有符號的編碼,是一個很大的集合,只規定了符號的二進制代碼,並沒有規定這些二進制代碼應該如何存儲;
- UTF-8 是一種變長的編碼方式,是 Unicode 的實現方式之一。
參考鏈接
GitHub 項目
Java 編程思想-最全思維導圖-GitHub 下載鏈接,需要的小伙伴可以自取~
原創不易,希望大家轉載時請先聯系我,並標注原文鏈接。