機器學習——分類和回歸


1.機器學習的主要任務:
一是將實例數據划分到合適的分類中,即分類問題。 而是是回歸, 它主要用於預測數值型數據,典型的回歸例子:數據擬合曲線。

 

2.監督學習和無監督學習:

分類和回歸屬於監督學習,之所以稱之為監督學習,是因為這類算法必須直到預測什么,即目標變量的分類信息

 

對於無監督學習,此時數據沒有類別信息,也不會給定目標值。在無監督學習中,將數據集合分成由類似的對象組成的多個類的過程被成為聚類;將尋找描述數據統計值的過程稱之為密度估計。此外,無監督學習還可以減少數據特征的維度,以便我們可以使用二維或者三維圖形更加直觀地展示數據信息。

 

3.線性回歸和非線性回歸

  線性回歸需要一個線性模型。一個線性的模型意味着模型的每一項要么是一個常數,要么是一個常數和一個預測變量的乘積。一個線性等式等於每一項相加的和。等式:

Response = constant + parameter * predictor + ... + parameter * predictor  <=>  Y = b o + b1X1 + b2X2 + ... + bkXk

在統計學中,如果一個回歸方程是線性的,那么它的參數必須是線性的。但是可以轉換預測變量加上平方,來使得模型產生曲線,比如 Y = b o + b1X1 + b2X12

這時模型仍然是線性的,雖然預測變量帶有平方。當然加上log或者反函數也是可以的。

 另外可以參考的博文:Khan公開課 - 統計學學習筆記:(九)線性回歸公式,決定系數和協方差  

線性回歸等式有一個基本的形式,而非線性回歸提供了許多靈活的曲線擬合方程。以下是幾個MATLAB中的典型非線性方程例子。

非線性函數的一個例子就是高階多項式(即多項式階數p>1):G = a o + a1X + a2X^2+ ... + akX^k。其他類型的非線性函數可通過泰勒展開用多項式逼近表示。函數G在x0處的線性近似為G(x0)+G'(x0)(x-x0)。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM