Unicode,GBK和UTF8


前言

其實這是個老生常談的問題了,相信大家在第一次遇到Unicode編碼問題時,都會在網上搜索一通,
找到幾個解釋,雖然有點雜亂,但還是感覺自己明白了些什么,然后就繼續忙別的事情.
而我之所以就這個問題專門寫一篇文章,原因是前兩天在與公司一位有十幾年工作經驗的JAVA程序員對接
API時, 我問他返回的漢字是什么編碼的, 而他回答說"直接返回unicode". 一個如此有經驗的老程序員
對這種基本問題都不甚清楚, 因此我覺得還是有必要好好說一下這個問題的.

字符集

在介紹他們之間的區別時, 我們先講下什么是Unicode. 簡單來說,Unicode是一個字符集(character set),
和ASCII一樣, 其作用是用一系列數字來表示字符(character), 這些數字有時也稱為碼點(code points).
在PC剛出來的時候,使用英文的幾位先驅認為計算機需要表示的字符不多,26個英文字母加幾個回車換行等
特殊符號,總共一百個字符頂天了,於是就有了ASCII. ASCII碼的大小為1個字節,定義了128個字符,
分別表示為0-127. 比如字符'A'的碼點為65,回車符'\n'的碼點為10, 如下所示:

>>> ord('A')
65
>>> ord('0')
48
>>> ord('\n')
10

當然, 后來人們發現, 世界上的字符遠遠不止128個, 因此就需要一個新的字符集能表示世上所有的字符,
包括一個英文字符,一個漢字字符,一個象形文字等. 這個字符集就是Unicode. Unicode前向兼容了ASCII,
最多可以表示2^21(大概200萬)個字符,已經足夠囊括當今所有國家的文字, 如下所示:

>>> u'ソ'
u'\u30bd'
>>> u'龍'
u'\u9f8d'
>>> u'A'
u'A'

目前unicode字符集表示完所有字符后還有剩余, 這些暫時用不到的部分通常用占位符FFFD表示.

字符編碼

有了字符集, 我們現在可以用任意數字來表示現實中的字符了. 但字符要保存在計算機中,必須要先經過編碼.
有人問, 數字直接保存在內存里不就行了嗎? 但是用多少個字節表示一個數字,以及每個字節的范圍這都是需要
預先約定的,這種約定就叫編碼. 假如我們有四個數字,1,2,3,4要保存在計算機里, 如果約定了utf-8編碼,
那么在內存中的表示則如下:

00000001 00000010 00000011 00000100

其他的編碼規則有utf-16,gb2312,gbk等,具體的編碼規則不在本文的范圍內,想要深入了解的可以在網上查閱相關的文檔.
因此,我們可以看到,如果不按照約定的規則來解碼,就很有可能無法還原出原來的數據,也就是我們經常遇到的"亂碼".
下面以幾個例子來簡單說明:

>>> u'你好'
u'\u4f60\u597d'
>>> u'你好'.encode('utf8')
'\xe4\xbd\xa0\xe5\xa5\xbd'
>>> u'你好'.encode('gbk')
'\xc4\xe3\xba\xc3'
>>> u'你好'.encode('utf8').decode('gbk')
u'\u6d63\u72b2\u30bd'
>>> print u'你好'.encode('utf8').decode('gbk')
浣犲ソ

如上面的代碼所示, "你好"兩個漢字字符的unicode分別為4f60和597d, utf-8編碼后占6個字節, 而gbk編碼后占4個字節.
如果用utf8編碼后錯誤地用gbk來解碼, 就會得到3個unicode碼點,分別表示字符,;而如果用gbk編碼后
錯誤地用utf8來解碼, 則在解碼第二個字符時無法湊夠3個字節, 因此會得到未知的結果, 甚至會因為內存越界訪問引起程序異常.

注: 本文的python代碼示例是在Linux Terminal下運行的, 因此默認為utf-8編碼, 如果你是在Windows cmd里運行,
則通常默認GBK編碼, 因此亂碼會在不同地方出現:)

知道字符編解碼的用法之后,我們就可以解釋一下常見的一些亂碼由來了, 比如在Windows下,未初始化的棧會初始化為0xcc,
未初始化的堆內存會初始化為0xcd, 可以看到前者為'燙'的gbk編碼,而后者正好為'屯'的gbk編碼, 如下所示:

>>> u'燙'
u'\u70eb'
>>> u'燙'.encode('gbk')
'\xcc\xcc'
>>> u'屯'
u'\u5c6f'
>>> u'屯'.encode('gbk')
'\xcd\xcd'

前面也說過, unicode暫時沒用到碼點會用占位符FFFD來表示, 如果這個占位符被錯誤解析, 就會被當作有意義的內容了:

>>> u'\uFFFD'.encode('utf8')
'\xef\xbf\xbd'
>>> u'錕斤拷'.encode('gbk')
'\xef\xbf\xbd\xef\xbf\xbd'
>>> print (u'\uFFFD'.encode('utf8')*2).decode('gbk')
錕斤拷

可以看到,漢字"錕斤銬"(Unicode)的gbk編碼分別為\xef\xbf, \xbd\xef和\xbf\xbd, 正好是unicode碼FFFD的utf8編碼
的疊加, 因此如果平時遇到多個utf8編碼的Unicode占位符且不巧用了gbk的方式解碼,那就會看到熟悉的錕斤銬了.

其他

在Windows的Notepad.exe中, 保存文件的格式可以看到有如下幾種:

notepad

可剛剛不是說Unicode只是字符集嗎, 為什么上面顯示可以保存為Unicode"編碼"? 好吧, 其實這是Windows在命名上一個操蛋的
地方. 因為Windows內部使用UTF-16小端(UTF-16LE)作為默認編碼,並且認為這就是Unicode的標准編碼格式. 在Windows的世界中,
存在着ANSI字符串(在當前系統代碼頁中, 不可拓展),以及Unicode字符串(內部以UTF16-LE編碼保存). 因此notepad里所說的
Unicode大端,其實就是UTF16-BE.

這其實也不怪Windows, 因為這是在Unicode出現的早期設計的, 那時我們還沒意識到UCS-2的不足, 而且UTF-8還沒有被發明出來.
這也是為什么Windows對UTF8的支持如此之差的原因之一吧.

后記

說了這么多, 現在讓我們回到一開始的問題, 如果有人問你"Unicode,GBK和UTF-8有什么區別?", 我想你應該知道該怎么回答了吧: Unicode是
一種字符集, 而GBK和UTF-8都是編碼, 因此Unicode和后兩者不是一類事物, 是無法進行對比的.

博客地址:

歡迎交流,文章轉載請注明出處.


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM