1-of-N encoding 詞嵌入其實是降維的一種非常好,非常廣為人知的應用。 如果要用一個向量表示一個詞,最典型的做法是1-of-N encoding。每一個詞用一個向量表示,向量的維度就是所有可能的詞的數量,假如有10萬個,那1-of-N encoding的維度就是十萬維。每一個 ...
Manifold Learning t SNE的 N E 就是Neighbor Embedding的縮寫。現在要做的事情就是之前講過的降維,只不過是非線性的降維。 我們知道數據點可能是高維空間里的一個流形曲面,也可以說,數據點的分布其實是在一個低維的空間里面,只是被扭曲塞到了一個高維空間里。流形曲面常舉的例子是地球,地球表面是一個流形曲面,是一個二維的平面,但是被塞到了一個三維的空間里。 在流形曲 ...
2020-06-22 21:51 0 608 推薦指數:
1-of-N encoding 詞嵌入其實是降維的一種非常好,非常廣為人知的應用。 如果要用一個向量表示一個詞,最典型的做法是1-of-N encoding。每一個詞用一個向量表示,向量的維度就是所有可能的詞的數量,假如有10萬個,那1-of-N encoding的維度就是十萬維。每一個 ...
半監督學習 什么是半監督學習? 大家知道在監督學習里,有一大堆的訓練數據(由input和output對組成)。例如上圖所示\(x^r\)是一張圖片,\(y^r\)是類別的label。 半監督學習是說,在label數據上面,有另外一組unlabeled的數據,寫成\(x^u ...
把無監督學習分成兩種 一種是化繁為簡,可以分成兩大類:聚類和降維 所謂的化繁為簡的意思是說,找一個函數,可以input看起來像樹的東西,output都是抽象的樹,把本來復雜的東西,變成比較簡單的output。在做無監督學習時,通常只會有函數中的一邊。比如找一個函數,可以把所有的樹都變成抽象 ...
什么是Auto-encoder 我們首先去找一個encoder,input一個東西,比如圖像識別做MNIST的話,就是input一張手寫數字圖片(28 *28 維像素點),那就是input 78 ...
問題:越深越好? 層數越多,參數越多,model比較復雜,數據又多的話,本來誤差就越小,這為什么歸因於”深“呢? 矮胖結構 v.s. 高瘦結構 真正要比較”深“和”淺“的model的時候 ...
Transformer英文的意思就是變形金剛,Transformer現在有一個非常知名的應用,這個應用叫做BERT,BERT就是非監督的Transformer,Transformer是一個seq2seq model with “self-attention"。Transformer在seq2seq ...
等應用 機器學習的分類 監督學習 (Supervised Learning) ...
監督學習,就是人們常說的分類,通過已有的訓練樣本(即已知數據以及其對應的輸出)去訓練得到一個最優模型(這個模型屬於某個函數的集合,最優則表示在某個評價准則下是最佳的),再利用這個模型將所有的輸入映射為相應的輸出,對輸出進行簡單的判斷從而實現分類的目的,也就具有了對未知數據進行分類的能力 ...