Manifold Learning t-SNE的“N E”就是Neighbor Embedding的縮寫。現在要做的事情就是之前講過的降維,只不過是非線性的降維。 我們知道數據點可能是高維空間 ...
半監督學習 什么是半監督學習 大家知道在監督學習里,有一大堆的訓練數據 由input和output對組成 。例如上圖所示 x r 是一張圖片, y r 是類別的label。 半監督學習是說,在label數據上面,有另外一組unlabeled的數據,寫成 x u 只有input沒有output ,有 U 筆ublabeled的數據。 通常做半監督學習的時候,我們常見的情景是ublabeled的數量遠 ...
2020-06-14 17:13 3 2154 推薦指數:
Manifold Learning t-SNE的“N E”就是Neighbor Embedding的縮寫。現在要做的事情就是之前講過的降維,只不過是非線性的降維。 我們知道數據點可能是高維空間 ...
1-of-N encoding 詞嵌入其實是降維的一種非常好,非常廣為人知的應用。 如果要用一個向量表示一個詞,最典型的做法是1-of-N encoding。每一個詞用一個向量表示,向量的維度 ...
把無監督學習分成兩種 一種是化繁為簡,可以分成兩大類:聚類和降維 所謂的化繁為簡的意思是說,找一個函數,可以input看起來像樹的東西,output都是抽象的樹,把本來復雜的東西,變成比較簡單的output。在做無監督學習時,通常只會有函數中的一邊。比如找一個函數,可以把所有的樹都變成抽象 ...
什么是Auto-encoder 我們首先去找一個encoder,input一個東西,比如圖像識別做MNIST的話,就是input一張手寫數字圖片(28 *28 維像素點),那就是input 78 ...
問題:越深越好? 層數越多,參數越多,model比較復雜,數據又多的話,本來誤差就越小,這為什么歸因於”深“呢? 矮胖結構 v.s. 高瘦結構 真正要比較”深“和”淺“的model的時候 ...
Transformer英文的意思就是變形金剛,Transformer現在有一個非常知名的應用,這個應用叫做BERT,BERT就是非監督的Transformer,Transformer是一個seq2seq model with “self-attention"。Transformer在seq2seq ...
李宏毅深度學習筆記 https://datawhalechina.github.io/leeml-notes 李宏毅深度學習視頻 https://www.bilibili.com/video/BV1JE411g7XF step1 神經網絡 激活函數是sigmoid,紅色圈是一組神經元,每個 ...
P1 一、線性回歸中的模型選擇 上圖所示: 五個模型,一個比一個復雜,其中所包含的function就越多,這樣就有更大幾率找到一個合適的參數集來更好的擬合訓練集。所以,隨着模型的復雜度提 ...