吳恩達機器學習筆記 —— 2 單變量線性回歸


第一章講述了基本的機器學習的概念以及分類,這里從單變量的線性回歸入手,吳恩達講解了機器學習中的幾個重要因素,如模型、損失函數、優化方法等

更多內容參考 機器學習&深度學習

首先以房價預測入手:

房子的面積 每平米的房價
2104 460
1416 232
1534 315
852 178

其中:

  • m 為 樣本的數量
  • x 是樣本的特征
  • y 是預測的值
  • \((x,y)\) 就是一條樣本數據
  • \(({ x }^{ (i) },{ y }^{ (i) })\) 是第i條樣本

機器學習的過程就是通過上面的例子學習一個模型,當再次有數據x進來的時候,能給出對應的y值

代價函數就是真實的值與我們預測的值之間的偏差,由於偏差有可能正,有可能負,因此使用均方差來表示。

不同的參數對應的損失值是不一樣的,最終機器學習的目的就是尋找這個損失之最低的方法。



在二維特征下,可以看成一個關於損失函數的等高線圖。同一個線圈,損失函數的值是相同的。在越來越靠近中心點時,可以看到預測的直線越來越貼近樣本值。證明在等高線最中心的位置(最低點),損失值是最小的。

梯度下降可能找到是一個局部最優解,而不是全局最優解。

  1. 參數隨着每次迭代而改變
  2. α是學習率,可以控制每次步長的變化
  3. 每次改變的長度是基於偏導求解的
  4. 在修改參數時,應該統一計算修改的值,再統一進行調整


無論在最低點的哪一側,公式都能保證θ是朝着最低點的位置在變化。

學習率的大小決定了能否快速找到最優解。

隨機梯度下降在靠近最優解的時候,步長將會變得越來越小。

線性回歸中,梯度下降是上面這樣的。

針對優化的方法,有batch梯度下降、隨機梯度下降、mini-batch梯度下降等等

batch梯度下降

隨機梯度下降

mini-batch梯度下降

參考:https://blog.csdn.net/ymshan92/article/details/54790657


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM