統一框架:兩步走,三問題 兩步 第一步:訓練 尋找一個函數 \(F:X \times Y \to R\) \(F(x,y)\)用來評估對象x和y的兼容性 or 合理性 第二步:推 ...
什么是支持向量機 支持向量機有兩個特色: 第一個是使用了Hinge Loss 折頁損失函數 鉸鏈損失函數 另一個是最厲害的地方,有個kernel trick 核技巧 Hinge Loss kernel trick就是支持向量機 機器學習三個步驟 思考二分類任務,一個機器學習任務的解決過程有三個步驟 現在有一筆標注數據, hat y 用 , 表示,代表兩個類別。 step :定義一個函數 g x , ...
2020-06-12 20:59 0 957 推薦指數:
統一框架:兩步走,三問題 兩步 第一步:訓練 尋找一個函數 \(F:X \times Y \to R\) \(F(x,y)\)用來評估對象x和y的兼容性 or 合理性 第二步:推 ...
問題:越深越好? 層數越多,參數越多,model比較復雜,數據又多的話,本來誤差就越小,這為什么歸因於”深“呢? 矮胖結構 v.s. 高瘦結構 真正要比較”深“和”淺“的model的時候 ...
Transformer英文的意思就是變形金剛,Transformer現在有一個非常知名的應用,這個應用叫做BERT,BERT就是非監督的Transformer,Transformer是一個seq2se ...
李宏毅深度學習筆記 https://datawhalechina.github.io/leeml-notes 李宏毅深度學習視頻 https://www.bilibili.com/video/BV1JE411g7XF step1 神經網絡 激活函數是sigmoid,紅色圈是一組神經元,每個 ...
P1 一、線性回歸中的模型選擇 上圖所示: 五個模型,一個比一個復雜,其中所包含的function就越多,這樣就有更大幾率找到一個合適的參數集來更好的擬合訓練集。所以,隨着模型的復雜度提 ...
半監督學習 什么是半監督學習? 大家知道在監督學習里,有一大堆的訓練數據(由input和output對組成)。例如上圖所示\(x^r\)是一張圖片,\(y^r\)是類別的label。 半監督學習是說,在label數據上面,有另外一組unlabeled的數據,寫成\(x^u ...
李宏毅深度學習筆記 https://datawhalechina.github.io/leeml-notes 李宏毅深度學習視頻 https://www.bilibili.com/video/BV1JE411g7XF 背景 梯度下降 假設有很多參數\(\theta\) 選擇一組初始值 ...
函數的input是兩個向量(\(h,x\)),output是另外兩個向量,寫作\(h',y\),我們知道 ...