吳恩達機器學習系列課程--個人筆記


網址:https://www.bilibili.com/video/av50747658/ (b站找的有中文字幕的視頻)

第一周

一、引言

1.1 歡迎

1.2 機器學習是什么

1.3 監督學習

1.4 無監督學習

二、單變量線性回歸

2.1 模型表示

2.2 代價函數

2.3 代價函數的直觀理解 I

2.4 代價函數的直觀理解 II

2.5 梯度下降

2.6 梯度下降的直觀理解

2.7 梯度下降的線性回歸

2.8 接下來的內容

三、線性代數回顧

3.1 矩陣和向量

3.2 加法和標量乘法

3.3 矩陣向量乘法

3.4 矩陣乘法

3-5 矩陣乘法特征

(1)矩陣乘法不適用交換律

(2)矩陣乘法滿足結合律

(3)單位矩陣是對角線(a11,a22,a33...)都等於1的矩陣

3-6 逆和轉置

(1)逆矩陣

只有m*m的矩陣有逆矩陣

I是單位矩陣

(2)轉置

aij的矩陣,變成aji

 

第2周

四、多變量線性回歸

4-1 多功能

當用多個參數預測房價時,需使用多元線性回歸,向量表示為:

4-2 多元梯度下降法

4-3 梯度下降法實踐 1-特征縮放

4-4 梯度下降法實踐 2-學習率

4-5 特征和多項式回歸

4-6 正規方程

4-7 正規方程及不可逆性(可選)

 

五、Octave教程

5-1 基本操作

~= 表示 邏輯不等於

5-2 移動數據

5-3 計算數據

5-4 數據繪制

5-5 控制語句:for while if 語句

5-6 矢量(沒太看懂)

 第三周

六、邏輯回歸

6-1 分類

邏輯回歸算法(logistics regression)——邏輯回歸算法是個分類算法,它適用於y值取離散值得情況。

二元分類(0,1分類)

6-2 假設陳述

6-3 決策界限

6-4 代價函數

6-5 簡化代價函數與梯度下降

6-6 高級優化

學完本章需要實現:寫一個函數,它能返回代價函數值、梯度值,因此要把這個應用到邏輯回歸或者甚至線性回歸中,你也可以把這些優化算法用於線性回歸,你需要做的就是輸入合適的代碼來計算這里的這些東西。

6-7 多元分類——一對多

y值是多個分類值

 

七、正則化

7-1 過擬合問題

什么是過擬合

正則化

7-2 代價函數

7-3 線性回歸的正則化

7-4 邏輯回歸的正則化

 

---------------------------------------

 

目前大家對機器學習算法可能還只是略懂,但是一旦你精通了線性回歸、高級優化算法
和正則化技術,坦率地說,你對機器學習的理解可能已經比許多工程師深入了。現在,你已
經有了豐富的機器學習知識,目測比那些硅谷工程師還厲害,或者用機器學習算法來做產品。
 
接下來的課程中,我們將學習一個非常強大的非線性分類器,無論是線性回歸問題,還
是邏輯回歸問題,都可以構造多項式來解決。你將逐漸發現還有更強大的非線性分類器,可
以用來解決多項式回歸問題。我們接下來將將學會,比現在解決問題的方法強大 N 倍的學
習算法。

 第四周

八、神經網絡:表述

8-1 非線性假設

8-2 神經元與大腦

8-3 模型展示I

8-4 模型展示II

8-5 例子與直覺理解I

8-6 例子與直覺理解II

8-7 多元分類

9-1 代價函數

9-2 反向傳播算法

9-3 理解反向傳播算法

9-4 使用注意:展開參數

9-5 梯度檢測

9-6 隨機初始化

9-7 組合到一起

9-8 無人駕駛

10-1 決定下一步做什么

 10-2 評估假設

10-3 模型選擇和訓練、測試、驗證集

60% 20% 20% 划分這三個集合(常用)

10-4 診斷偏差與方差

10-5 正則化和方差、偏差

10-6 學習曲線

10-7 決定接下來要做什么

11-1 確定執行的優先級

11-2 誤差分析

11-3 不對稱性分類的誤差評估

11-4 精確度和召回率的權衡

11-5 機器學習數據  

12-1 優化目標

12-2 直觀上對大間隔的理解

12-3 大間隔分類器的數學原理

12-4 核函數1

12-5 核函數2

12-6 使用SVM

13-1 無監督學習

聚類

13-2 K-Means算法

13-3 優化目標

13-4 隨機初始化

13-5- 選取聚類數量

14-1 目標I:數據壓縮

14-2 目標II:可視化

14-3 主成分分析問題規划1

14-4 主成分分析問題規划2

14-5 主成分數量選擇

14-6 壓縮重現

14-7 應用PCA的建議

15-1 問題動機

15-2 高斯分布(正態分布)

15-3 算法

15-4 開發和評估異常檢測系統

15-5 異常檢測 VS 監督學習

當正樣本過少,負樣本較多的時候,使用異常檢測,算法可以從負樣本中學到足夠多的特征

反之,負樣本過少的時候,用監督學習

15-6 選擇要使用的功能

15-7 多變量高斯分布

15-8 使用多變量高斯分布的異常檢測

16-1 問題規划

推薦系統

16-2 基於內容的推薦算法

16-3 協同過濾

16-4 協同過濾算法

16-5 矢量化:低秩矩陣分解

16-6 實施細節:均值規范化

17-1 學習大數據集

17-2 隨機梯度下降

17-3 Mini-Batch 梯度下降

17-4 隨機梯度下降收斂

17-5 在線學習

17-6 減少映射與數據並行

18-1 問題描述與OCR.pipeline

 圖像識別

18-2 滑動窗口

使用滑動窗口檢測器找出圖片中的行人

18-3 獲取大量數據和人工數據

18-4 天花板分析:下一步工作的pipeline

19-1 總結與感謝


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM