(Notes and Codes of Machine Learning by Andrew Ng from Stanford University) 說明:為了保證連貫性,文章按照專題而不是原本的課程進度來組織。 零、什么是機器學習? 機器學習就是:根據已有的訓練集D,采用學習算法A,得到 ...
斯坦福大學機器學習,EM算法求解高斯混合模型。一種高斯混合模型算法的改進方法 將聚類算法與傳統高斯混合模型結合起來的建模方法, 並同時提出的運用距離加權的矢量量化方法獲取初始值,並采用衡量相似度的方法來融合高斯分量。從對比結果可以看出,基於聚類的高斯混合模型的說話人識別相對於傳統的高斯混合模型在識別率上有所提高。 高斯模型有單高斯模型 SGM 和混合高斯模型 GMM 兩種。 單高斯模型: 為簡單起 ...
2017-06-06 01:33 0 3967 推薦指數:
(Notes and Codes of Machine Learning by Andrew Ng from Stanford University) 說明:為了保證連貫性,文章按照專題而不是原本的課程進度來組織。 零、什么是機器學習? 機器學習就是:根據已有的訓練集D,采用學習算法A,得到 ...
在有監督學習里面有幾個邏輯上的重要組成部件[3],初略地分可以分為:模型,參數 和 目標函數。(此部分轉自 XGBoost 與 Boosted Tree) 一、模型和參數 模型指給定輸入xi如何去預測 輸出 yi。我們比較常見的模型如線性模型(包括線性回歸和logistic ...
課程設置和內容 視頻課程分為20集,每集72-85分鍾。實體課程大概一周2次,中間還穿插助教上的習題課,大概一個學期的課程。 內容涉及四大部分,分別是:監督學習(2-8集)、學習理論(9集-11集)、無監督學習(12-15集)、強化學習(16-20集)。監督學習和無監督學習,基本上是機器學習 ...
CS229 斯坦福大學機器學習復習材料(數學基礎) - 線性代數 線性代數回顧與參考 1 基本概念和符號 1.1 基本符號 2 矩陣乘法 2.1 向量-向量乘法 ...
極大似然估計是利用已知的樣本結果,去反推最有可能(最大概率)導致這樣結果的參數值,也就是在給定的觀測變量下去估計參數值。然而現實中可能存在這樣的問題,除了觀測變量之外,還存在着未知的隱變量,因為變量未知,因此無法直接通過最大似然估計直接求參數值。EM算法是一種迭代算法,用於含有隱變量的概率模型 ...
第一部分: 這篇討論使用期望最大化算法(Expectation-Maximization)來進行密度估計(density estimation)。 與k-means一樣,給定的訓練樣本是,我們將隱含類別標簽用表示。與k-means的硬指定不同,我們首先認為是滿足一定的概率分布 ...
上節中,我們講了正規方程。在這節中,我們將學習正規方程以及不可逆性。本節的概念較為深入,所以可以將它看作是選學材料。 我們要討論的問題如下: 當我們計算θ=(XTX)-1XTy的時候,萬一矩陣XTX是不可逆的話怎么辦? 如果懂一點線性代數的知識 ...
課程首頁:Coursera-Stanford-Machine Learning 授課教授:吳恩達(Andrew Ng) ------Week 1------2018.10.10------ ...