1.機器學習的主要任務:
一是將實例數據划分到合適的分類中,即分類問題。 而是是回歸, 它主要用於預測數值型數據,典型的回歸例子:數據擬合曲線。
2.監督學習和無監督學習:
分類和回歸屬於監督學習,之所以稱之為監督學習,是因為這類算法必須直到預測什么,即目標變量的分類信息。
對於無監督學習,此時數據沒有類別信息,也不會給定目標值。在無監督學習中,將數據集合分成由類似的對象組成的多個類的過程被成為聚類;將尋找描述數據統計值的過程稱之為密度估計。此外,無監督學習還可以減少數據特征的維度,以便我們可以使用二維或者三維圖形更加直觀地展示數據信息。
3.線性回歸和非線性回歸
線性回歸需要一個線性模型。一個線性的模型意味着模型的每一項要么是一個常數,要么是一個常數和一個預測變量的乘積。一個線性等式等於每一項相加的和。等式:
Response = constant + parameter * predictor + ... + parameter * predictor <=> Y = b o + b1X1 + b2X2 + ... + bkXk
在統計學中,如果一個回歸方程是線性的,那么它的參數必須是線性的。但是可以轉換預測變量加上平方,來使得模型產生曲線,比如 Y = b o + b1X1 + b2X12
這時模型仍然是線性的,雖然預測變量帶有平方。當然加上log或者反函數也是可以的。


另外可以參考的博文:Khan公開課 - 統計學學習筆記:(九)線性回歸公式,決定系數和協方差
線性回歸等式有一個基本的形式,而非線性回歸提供了許多靈活的曲線擬合方程。以下是幾個MATLAB中的典型非線性方程例子。
非線性函數的一個例子就是高階多項式(即多項式階數p>1):G = a o + a1X + a2X^2+ ... + akX^k。其他類型的非線性函數可通過泰勒展開用多項式逼近表示。函數G在x0處的線性近似為G(x0)+G'(x0)(x-x0)。


