網址:https://www.bilibili.com/video/av50747658/ (b站找的有中文字幕的視頻)
第一周
一、引言
1.1 歡迎
1.2 機器學習是什么
1.3 監督學習
1.4 無監督學習
二、單變量線性回歸
2.1 模型表示
2.2 代價函數
2.3 代價函數的直觀理解 I
2.4 代價函數的直觀理解 II
2.5 梯度下降
2.6 梯度下降的直觀理解
2.7 梯度下降的線性回歸
2.8 接下來的內容
三、線性代數回顧
3.1 矩陣和向量
3.2 加法和標量乘法
3.3 矩陣向量乘法
3.4 矩陣乘法
3-5 矩陣乘法特征
(1)矩陣乘法不適用交換律
(2)矩陣乘法滿足結合律
(3)單位矩陣是對角線(a11,a22,a33...)都等於1的矩陣
3-6 逆和轉置
(1)逆矩陣
只有m*m的矩陣有逆矩陣
I是單位矩陣
(2)轉置
aij的矩陣,變成aji
第2周
四、多變量線性回歸
4-1 多功能
當用多個參數預測房價時,需使用多元線性回歸,向量表示為:
4-2 多元梯度下降法
4-3 梯度下降法實踐 1-特征縮放
4-4 梯度下降法實踐 2-學習率
4-5 特征和多項式回歸
4-6 正規方程
4-7 正規方程及不可逆性(可選)
五、Octave教程
5-1 基本操作
~= 表示 邏輯不等於
5-2 移動數據
5-3 計算數據
5-4 數據繪制
5-5 控制語句:for while if 語句
5-6 矢量(沒太看懂)
第三周
六、邏輯回歸
6-1 分類
邏輯回歸算法(logistics regression)——邏輯回歸算法是個分類算法,它適用於y值取離散值得情況。
二元分類(0,1分類)
6-2 假設陳述
6-3 決策界限
6-4 代價函數
6-5 簡化代價函數與梯度下降
6-6 高級優化
學完本章需要實現:寫一個函數,它能返回代價函數值、梯度值,因此要把這個應用到邏輯回歸或者甚至線性回歸中,你也可以把這些優化算法用於線性回歸,你需要做的就是輸入合適的代碼來計算這里的這些東西。
6-7 多元分類——一對多
y值是多個分類值
七、正則化
7-1 過擬合問題
什么是過擬合
正則化
7-2 代價函數
7-3 線性回歸的正則化
7-4 邏輯回歸的正則化
---------------------------------------
第四周
八、神經網絡:表述
8-1 非線性假設
8-2 神經元與大腦
8-3 模型展示I
8-4 模型展示II
8-5 例子與直覺理解I
8-6 例子與直覺理解II
8-7 多元分類
9-1 代價函數
9-2 反向傳播算法
9-3 理解反向傳播算法
9-4 使用注意:展開參數
9-5 梯度檢測
9-6 隨機初始化
9-7 組合到一起
9-8 無人駕駛
10-1 決定下一步做什么
10-2 評估假設
10-3 模型選擇和訓練、測試、驗證集
60% 20% 20% 划分這三個集合(常用)
10-4 診斷偏差與方差
10-5 正則化和方差、偏差
10-6 學習曲線
10-7 決定接下來要做什么
11-1 確定執行的優先級
11-2 誤差分析
11-3 不對稱性分類的誤差評估
11-4 精確度和召回率的權衡
11-5 機器學習數據
12-1 優化目標
12-2 直觀上對大間隔的理解
12-3 大間隔分類器的數學原理
12-4 核函數1
12-5 核函數2
12-6 使用SVM
13-1 無監督學習
聚類
13-2 K-Means算法
13-3 優化目標
13-4 隨機初始化
13-5- 選取聚類數量
14-1 目標I:數據壓縮
14-2 目標II:可視化
14-3 主成分分析問題規划1
14-4 主成分分析問題規划2
14-5 主成分數量選擇
14-6 壓縮重現
14-7 應用PCA的建議
15-1 問題動機
15-2 高斯分布(正態分布)
15-3 算法
15-4 開發和評估異常檢測系統
15-5 異常檢測 VS 監督學習
當正樣本過少,負樣本較多的時候,使用異常檢測,算法可以從負樣本中學到足夠多的特征
反之,負樣本過少的時候,用監督學習
15-6 選擇要使用的功能
15-7 多變量高斯分布
15-8 使用多變量高斯分布的異常檢測
16-1 問題規划
推薦系統
16-2 基於內容的推薦算法
16-3 協同過濾
16-4 協同過濾算法
16-5 矢量化:低秩矩陣分解
16-6 實施細節:均值規范化
17-1 學習大數據集
17-2 隨機梯度下降
17-3 Mini-Batch 梯度下降
17-4 隨機梯度下降收斂
17-5 在線學習
17-6 減少映射與數據並行
18-1 問題描述與OCR.pipeline
圖像識別
18-2 滑動窗口
使用滑動窗口檢測器找出圖片中的行人
18-3 獲取大量數據和人工數據
18-4 天花板分析:下一步工作的pipeline
19-1 總結與感謝