嵌入(embedding)層的理解


首先,我們有一個one-hot編碼的概念。

假設,我們中文,一共只有10個字。。。只是假設啊,那么我們用0-9就可以表示完

比如,這十個字就是“我從哪里來,要到何處去”

其分別對應“0-9”,如下:

我  從  哪  里  來  要  到  何  處  去

0    1    2    3   4    5   6    7    8   9

那么,其實我們只用一個列表就能表示所有的對話

如:我  從  哪  里  來  要  到  何  處  去  ——>>>[0 1 2 3 4 5 6 7 8 9]

或:我  從  何  處  來  要  到  哪  里  去  ——>>>[0 1 7 8 4 5 6 2 3 9]

但是,我們看看one-hot編碼方式(詳見:https://blog.csdn.net/tengyuan93/article/details/78930285)

他把上面的編碼方式弄成這樣

# 我從哪里來,要到何處去
[
[1 0 0 0 0 0 0 0 0 0]
[0 1 0 0 0 0 0 0 0 0]
[0 0 1 0 0 0 0 0 0 0]
[0 0 0 1 0 0 0 0 0 0]
[0 0 0 0 1 0 0 0 0 0]
[0 0 0 0 0 1 0 0 0 0]
[0 0 0 0 0 0 1 0 0 0]
[0 0 0 0 0 0 0 1 0 0]
[0 0 0 0 0 0 0 0 1 0]
[0 0 0 0 0 0 0 0 0 1]
]

# 我從何處來,要到哪里去
[
[1 0 0 0 0 0 0 0 0 0]
[0 1 0 0 0 0 0 0 0 0]
[0 0 0 0 0 0 0 1 0 0]
[0 0 0 0 0 0 0 0 1 0]
[0 0 0 0 1 0 0 0 0 0]
[0 0 0 0 0 1 0 0 0 0]
[0 0 0 0 0 0 1 0 0 0]
[0 0 1 0 0 0 0 0 0 0]
[0 0 0 1 0 0 0 0 0 0]
[0 0 0 0 0 0 0 0 0 1]
]
即:把每一個字都對應成一個十個(樣本總數/字總數)元素的數組/列表,其中每一個字都用唯一對應的數組/列表對應,數組/列表的唯一性用1表示。如上,“我”表示成[1。。。。],“去”表示成[。。。。1],這樣就把每一系列的文本整合成一個稀疏矩陣。

那問題來了,稀疏矩陣(二維)和列表(一維)相比,有什么優勢。

很明顯,計算簡單嘛,稀疏矩陣做矩陣計算的時候,只需要把1對應位置的數相乘求和就行,也許你心算都能算出來;而一維列表,你能很快算出來?何況這個列表還是一行,如果是100行、1000行和或1000列呢?

所以,one-hot編碼的優勢就體現出來了,計算方便快捷、表達能力強。

然而,缺點也隨着來了。

比如:中文大大小小簡體繁體常用不常用有十幾萬,然后一篇文章100W字,你要表示成100W X 10W的矩陣???

這是它最明顯的缺點。過於稀疏時,過度占用資源。

比如:其實我們這篇文章,雖然100W字,但是其實我們整合起來,有99W字是重復的,只有1W字是完全不重復的。那我們用100W X 10W的豈不是白白浪費了99W X 10W的矩陣存儲空間。

那怎么辦???

這時,Embedding層橫空出世。

接下來給大家看一張圖

 

假設:我們有一個2 x 6的矩陣,然后乘上一個6 x 3的矩陣后,變成了一個2 x 3的矩陣。

先不管它什么意思,這個過程,我們把一個12個元素的矩陣變成6個元素的矩陣,直觀上,大小是不是縮小了一半?

也許你已經想到了!!!對!!!不管你想的對不對,但是embedding層,在某種程度上,就是用來降維的,降維的原理就是矩陣乘法。在卷積網絡中,可以理解為特殊全連接層操作,跟1x1卷積核異曲同工!!!484很神奇!!!

也就是說,假如我們有一個100W X10W的矩陣,用它乘上一個10W X 20的矩陣,我們可以把它降到100W X 20,瞬間量級降了。。。10W/20=5000倍!!!

這就是嵌入層的一個作用——降維。

然后中間那個10W X 20的矩陣,可以理解為查詢表,也可以理解為映射表,也可以理解為過度表,whatever。

接着,既然可以降維,當然也可以升維。為什么要升維?

 

這張圖,我要你在10米開外找出五處不同!。。。What?煩請出題者走近兩步,我先把我的刀拿出來,您再說一遍題目我沒聽清。

當然,目測這是不可能完成的。但是我讓你在一米外,也許你一瞬間就發現衣服上有個心是不同的,然后再走近半米,你又發現左上角和右上角也是不同的。再走近20厘米,又發現耳朵也不同,最后,在距離屏幕10厘米的地方,終於發現第五個不同的地方在耳朵下面一點的雲。

但是,其實無限靠近並不代表認知度就高了,比如,你只能距離屏幕1厘米遠的地方找,找出五處不同。。。出題人你是不是腦袋被門擠了。。。

由此可見,距離的遠近會影響我們的觀察效果。同理也是一樣的,低維的數據可能包含的特征是非常籠統的,我們需要不停地拉近拉遠來改變我們的感受野,讓我們對這幅圖有不同的觀察點,找出我們要的茬。

embedding的又一個作用體現了。對低維的數據進行升維時,可能把一些其他特征給放大了,或者把籠統的特征給分開了。同時,這個embedding是一直在學習在優化的,就使得整個拉近拉遠的過程慢慢形成一個良好的觀察點。比如:我來回靠近和遠離屏幕,發現45厘米是最佳觀測點,這個距離能10秒就把5個不同點找出來了。

回想一下為什么CNN層數越深准確率越高,卷積層卷了又卷,池化層池了又升,升了又降,全連接層連了又連。因為我們也不知道它什么時候突然就學到了某個有用特征。但是不管怎樣,學習都是好事,所以讓機器多卷一卷,多連一連,反正錯了多少我會用交叉熵告訴你,怎么做才是對的我會用梯度下降算法告訴你,只要給你時間,你遲早會學懂。因此,理論上,只要層數深,只要參數足夠,NN能擬合任何特征。總之,它類似於虛擬出一個關系對當前數據進行映射。這個東西也許一言難盡吧,但是目前各位只需要知道它有這些功能的就行了。

接下來,繼續假設我們有一句話,叫“公主很漂亮”,如果我們使用one-hot編碼,可能得到的編碼如下:

公 [0 0 0 0 1]
主 [0 0 0 1 0]
很 [0 0 1 0 0]
漂 [0 1 0 0 0]
亮 [1 0 0 0 0]
乍一眼看過似乎沒毛病,其實本來人家也沒毛病,或者假設咱們的詞袋更大一些

公 [0 0 0 0 1 0 0 0 0 0]
主 [0 0 0 1 0 0 0 0 0 0]
很 [0 0 1 0 0 0 0 0 0 0]
漂 [0 1 0 0 0 0 0 0 0 0]
亮 [1 0 0 0 0 0 0 0 0 0]
假設吧,就假設咱們的詞袋一共就10個字,則這一句話的編碼如上所示。

這樣的編碼,最大的好處就是,不管你是什么字,我們都能在一個一維的數組里用01給你表示出來。並且不同的字絕對不一樣,以致於一點重復都沒有,表達本征的能力極強。

但是,因為其完全獨立,其劣勢就出來了。表達關聯特征的能力幾乎為0!!!

我給你舉個例子,我們又有一句話“王妃很漂亮”

那么在這基礎上,我們可以把這句話表示為

王 [0 0 0 0 0 0 0 0 0 1]
妃 [0 0 0 0 0 0 0 0 1 0]
很 [0 0 1 0 0 0 0 0 0 0]
漂 [0 1 0 0 0 0 0 0 0 0]
亮 [1 0 0 0 0 0 0 0 0 0]
從中文表示來看,我們一下就跟感覺到,王妃跟公主其實是有很大關系的,比如:公主是皇帝的女兒,王妃是皇帝的妃子,可以從“皇帝”這個詞進行關聯上;公主住在宮里,王妃住在宮里,可以從“宮里”這個詞關聯上;公主是女的,王妃也是女的,可以從“女”這個字關聯上。

但是呢,我們用了one-hot編碼,公主和王妃就變成了這樣:

公 [0 0 0 0 1 0 0 0 0 0]
主 [0 0 0 1 0 0 0 0 0 0]
王 [0 0 0 0 0 0 0 0 0 1]
妃 [0 0 0 0 0 0 0 0 1 0]
你說,你要是不看前面的中文注解,你知道這四行向量有什么內部關系嗎?看不出來,那怎么辦?

既然,通過剛才的假設關聯,我們關聯出了“皇帝”、“宮里”和“女”三個詞,那我們嘗試這么去定義公主和王妃

公主一定是皇帝的女兒,我們假設她跟皇帝的關系相似度為1.0;公主從一出生就住在宮里,直到20歲才嫁到府上,活了80歲,我們假設她跟宮里的關系相似度為0.25;公主一定是女的,跟女的關系相似度為1.0;

王妃是皇帝的妃子,沒有親緣關系,但是有存在着某種關系,我們就假設她跟皇帝的關系相似度為0.6吧;妃子從20歲就住在宮里,活了80歲,我們假設她跟宮里的關系相似度為0.75;王妃一定是女的,跟女的關系相似度為1.0;

於是公主王妃四個字我們可以這么表示:

皇 宮
帝 里 女
公主 [ 1.0 0.25 1.0]
王妃 [ 0.6 0.75 1.0]
這樣我們就把公主和王妃兩個詞,跟皇帝、宮里、女這幾個字(特征)關聯起來了,我們可以認為:

公主=1.0 *皇帝 +0.25*宮里 +1.0*女

王妃=0.6 *皇帝 +0.75*宮里 +1.0*女

或者這樣,我們假設沒歌詞的每個字都是對等(注意:只是假設,為了方便解釋):

皇 宮
帝 里 女
公 [ 0.5 0.125 0.5]
主 [ 0.5 0.125 0.5]
王 [ 0.3 0.375 0.5]
妃 [ 0.3 0.375 0.5]
這樣,我們就把一些詞甚至一個字,用三個特征給表征出來了。然后,我們把皇帝叫做特征(1),宮里叫做特征(2),女叫做特征(3),於是乎,我們就得出了公主和王妃的隱含特征關系:

王妃=公主的特征(1) * 0.6 +公主的特征(2) * 3 +公主的特征(3) * 1

於是乎,我們把文字的one-hot編碼,從稀疏態變成了密集態,並且讓相互獨立向量變成了有內在聯系的關系向量。

所以,embedding層做了個什么呢?它把我們的稀疏矩陣,通過一些線性變換(在CNN中用全連接層進行轉換,也稱為查表操作),變成了一個密集矩陣,這個密集矩陣用了N(例子中N=3)個特征來表征所有的文字,在這個密集矩陣中,表象上代表着密集矩陣跟單個字的一一對應關系,實際上還蘊含了大量的字與字之間,詞與詞之間甚至句子與句子之間的內在關系(如:我們得出的王妃跟公主的關系)。他們之間的關系,用的是嵌入層學習來的參數進行表征。從稀疏矩陣到密集矩陣的過程,叫做embedding,很多人也把它叫做查表,因為他們之間也是一個一一映射的關系。

更重要的是,這種關系在反向傳播的過程中,是一直在更新的,因此能在多次epoch后,使得這個關系變成相對成熟,即:正確的表達整個語義以及各個語句之間的關系。這個成熟的關系,就是embedding層的所有權重參數。

Embedding是NPL領域最重要的發明之一,他把獨立的向量一下子就關聯起來了。這就相當於什么呢,相當於你是你爸的兒子,你爸是A的同事,B是A的兒子,似乎跟你是八竿子才打得着的關系。結果你一看B,是你的同桌。Embedding層就是用來發現這個秘密的武器。

原文:https://blog.csdn.net/weixin_42078618/article/details/84553940


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM