統一框架:兩步走,三問題 兩步 第一步:訓練 尋找一個函數 \(F:X \times Y \to R\) \(F(x,y)\)用來評估對象x和y的兼容性 or 合理性 第二步:推 ...
之前講了結構化學習的概念,其實學習都可以看做是兩個步驟,只要回答三個問題,就可以解決所有學習的task。 序列標注 現在函數input是一個sequence,output也是一個sequence 先假設兩個sequence的長度一樣 。如上圖所示,input x 是 x ,x ,...,x L ,output y 是 y ,y ,...,y L 。這個問題其實是可以用RNN解決的。 例子:詞性標注 ...
2020-07-07 17:55 0 741 推薦指數:
統一框架:兩步走,三問題 兩步 第一步:訓練 尋找一個函數 \(F:X \times Y \to R\) \(F(x,y)\)用來評估對象x和y的兼容性 or 合理性 第二步:推 ...
問題:越深越好? 層數越多,參數越多,model比較復雜,數據又多的話,本來誤差就越小,這為什么歸因於”深“呢? 矮胖結構 v.s. 高瘦結構 真正要比較”深“和”淺“的model的時候,要讓它們的參數一樣多。 “淺”的model就會是一個矮胖的model,“深”的model就會 ...
Transformer英文的意思就是變形金剛,Transformer現在有一個非常知名的應用,這個應用叫做BERT,BERT就是非監督的Transformer,Transformer是一個seq2se ...
李宏毅深度學習筆記 https://datawhalechina.github.io/leeml-notes 李宏毅深度學習視頻 https://www.bilibili.com/video/BV1JE411g7XF step1 神經網絡 激活函數是sigmoid,紅色圈是一組神經元,每個 ...
P1 一、線性回歸中的模型選擇 上圖所示: 五個模型,一個比一個復雜,其中所包含的function就越多,這樣就有更大幾率找到一個合適的參數集來更好的擬合訓練集。所以,隨着模型的復雜度提 ...
半監督學習 什么是半監督學習? 大家知道在監督學習里,有一大堆的訓練數據(由input和output對組成)。例如上圖所示\(x^r\)是一張圖片,\(y^r\)是類別的label。 半監督學習是說,在label數據上面,有另外一組unlabeled的數據,寫成\(x^u ...
李宏毅深度學習筆記 https://datawhalechina.github.io/leeml-notes 李宏毅深度學習視頻 https://www.bilibili.com/video/BV1JE411g7XF 背景 梯度下降 假設有很多參數\(\theta\) 選擇一組初始值 ...
在講Sequence Generation之前,再復習下RNN和有門的RNN(LSTM,GRU) 之前告訴你說,RNN是一個有記憶的神經網絡,但今天從另外一個角度來講RNN。我們說RNN特別 ...