一、為什么是ML策略 如上圖示,假如我們在構建一個喵咪分類器,數據集就是上面幾個圖,訓練之后准確率達到90%。雖然看起來挺高的,但是這顯然並不具一般性,因為數據集太少了。那么此時可以想到的ML策略有哪些呢?總結如下: 收集更多的數據 收集更多不同的訓練集 結合梯度下降訓練算法 ...
一 進行誤差分析 很多時候我們發現訓練出來的模型有誤差后,就會一股腦的想着法子去減少誤差。想法固然好,但是有點headlong 這節視頻中吳大大介紹了一個比較科學的方法,具體的看下面的例子 還是以貓分類器為例,假設我們的模型表現的還不錯,但是依舊存在誤差,預測后錯誤標記的數據中有一部分狗圖片被錯誤的標記成了貓。這個時候按照一般的思路可能是想通過訓練出狗分類器模型來提高貓分類器,或者其他的辦法,反正 ...
2017-10-27 00:03 3 1248 推薦指數:
一、為什么是ML策略 如上圖示,假如我們在構建一個喵咪分類器,數據集就是上面幾個圖,訓練之后准確率達到90%。雖然看起來挺高的,但是這顯然並不具一般性,因為數據集太少了。那么此時可以想到的ML策略有哪些呢?總結如下: 收集更多的數據 收集更多不同的訓練集 結合梯度下降訓練算法 ...
一、詞匯表征 首先回顧一下之前介紹的單詞表示方法,即one hot表示法。 如下圖示,“Man”這個單詞可以用 \(O_{5391}\) 表示,其中O表示One_hot。其他單詞同理。 但是這樣 ...
四、多變量線性回歸(Linear Regression with Multiple Variables) 4.1 多維特征 4.2 多變量梯度下降 4.3 梯度下降法實踐1-特征縮放 4.4 梯度下降法實踐2-學習率 4.5 特征和多項式回歸 4.6 正規方程 ...
一、為什么要進行實例探究? 通過他人的實例可以更好的理解如何構建卷積神經網絡,本周課程主要會介紹如下網絡 LeNet-5 AlexNet VGG ResNet (有152層) ...
1. Mini-batch梯度下降法 介紹 假設我們的數據量非常多,達到了500萬以上,那么此時如果按照傳統的梯度下降算法,那么訓練模型所花費的時間將非常巨大,所以我們對數據做如下處理: 如 ...
Deep Learning Specialization 吳恩達老師最近在coursera上聯合deeplearning.ai 推出了有關深度學習的一系列課程,相對於之前的machine learning課程,這次的課程更加實用,作業語言也有matlab改為了python從而更加貼合目前的趨勢 ...
* plotData.m * computeCost.m * gradientDescent.m * featureNormaliz ...
一、深層神經網絡 深層神經網絡的符號與淺層的不同,記錄如下: 用\(L\)表示層數,該神經網絡\(L=4\) \(n^{[l]}\)表示第\(l\)層的神經元的數量,例如\(n^{[ ...