什么是支持向量機? 支持向量機有兩個特色: 第一個是使用了Hinge Loss(折頁損失函數、鉸鏈損失函數) 另一個是最厲害的地方,有個kernel trick(核技巧) Hinge Loss+kernel trick就是支持向量機 機器學習三個步驟 思考二分類任務 ...
統一框架:兩步走,三問題 兩步 第一步:訓練 尋找一個函數 F:X times Y to R F x,y 用來評估對象x和y的兼容性 or 合理性 第二步:推理 or 測試 給定一個對象 x ,求 large widetilde y arg max limits y in Y F x,y 給定任意一個 x ,窮舉所有 y ,找出能讓 F x,y 最大的 widetilde y 三問題 Q :評估 ...
2020-07-04 22:04 0 656 推薦指數:
什么是支持向量機? 支持向量機有兩個特色: 第一個是使用了Hinge Loss(折頁損失函數、鉸鏈損失函數) 另一個是最厲害的地方,有個kernel trick(核技巧) Hinge Loss+kernel trick就是支持向量機 機器學習三個步驟 思考二分類任務 ...
之前講了結構化學習的概念,其實學習都可以看做是兩個步驟,只要回答三個問題,就可以解決所有學習的task。 序列標注 現在函數input是一個sequence,output也是一個sequence(先假設兩個sequence的長度一樣)。如上圖所示,input \(x\)是\(x_1,x_2 ...
問題:越深越好? 層數越多,參數越多,model比較復雜,數據又多的話,本來誤差就越小,這為什么歸因於”深“呢? 矮胖結構 v.s. 高瘦結構 真正要比較”深“和”淺“的model的時候,要讓它們的參數一樣多。 “淺”的model就會是一個矮胖的model,“深”的model就會 ...
Transformer英文的意思就是變形金剛,Transformer現在有一個非常知名的應用,這個應用叫做BERT,BERT就是非監督的Transformer,Transformer是一個seq2se ...
李宏毅深度學習筆記 https://datawhalechina.github.io/leeml-notes 李宏毅深度學習視頻 https://www.bilibili.com/video/BV1JE411g7XF step1 神經網絡 激活函數是sigmoid,紅色圈是一組神經元,每個 ...
P1 一、線性回歸中的模型選擇 上圖所示: 五個模型,一個比一個復雜,其中所包含的function就越多,這樣就有更大幾率找到一個合適的參數集來更好的擬合訓練集。所以,隨着模型的復雜度提 ...
半監督學習 什么是半監督學習? 大家知道在監督學習里,有一大堆的訓練數據(由input和output對組成)。例如上圖所示\(x^r\)是一張圖片,\(y^r\)是類別的label。 半監督學習是說,在label數據上面,有另外一組unlabeled的數據,寫成\(x^u ...
李宏毅深度學習筆記 https://datawhalechina.github.io/leeml-notes 李宏毅深度學習視頻 https://www.bilibili.com/video/BV1JE411g7XF 背景 梯度下降 假設有很多參數\(\theta\) 選擇一組初始值 ...