線性回歸目標:
已知訓練集(x1,y1)(x2,y2) ....(xm ,ym), 擬合回歸為最優的線性函數。
線性回歸原理:
使用最小二乘法,訓練集與擬合后的線性標記函數歐式距離之和最小,則該標記函數為最優線性回歸函數。
其中f(x)為標記函數,yi為實際值,e(f,y)為均值分布定義為均值誤差,
均值誤差最小,測f(x)為最優的解,為此訓練集的線性回歸函數。
一介二項式的線性回歸
函數線性方程:
依據線性回歸原理可得:
(1-1)
一介二項式的線性回歸歸結為(1-1)的最小值 即求w b的偏導數
依據 w b的值 寫出直線方程 y=wx+b
java 實現:
public class Line {
public static double [] getLinePara(Double [] [] points ) {
double dbRt [] =new double [2];
double dbXSum=0;
for(int i=0;i<points[0].length;i++) {
dbXSum=dbXSum+points[0][i];
}
double dbXAvg=dbXSum/points[0].length;
double dbWHeadVal=0;
for(int i=0;i<points[0].length;i++) {
dbWHeadVal=dbWHeadVal+(points[0][i]-dbXAvg)*points[1][i];
}
double dbWDown=0;
double dbWDownP=0;
double dbWDownN=0;
dbXSum=0;
for(int i=0;i<points[0].length;i++) {
dbWDownP=dbWDownP+points[0][i]*points[0][i];
dbXSum=dbXSum+points[0][i];
}
dbWDown=dbWDownP-(dbXSum*dbXSum/points[0].length);
double dbW=dbWHeadVal/dbWDown;
dbRt[0]=dbW;
double dbBSum=0;
for(int i=0;i<points[0].length;i++) {
dbBSum=dbBSum+(points[1][i]-dbW*points[0][i]);
}
double dbB=dbBSum/points[0].length;
dbRt[1]=dbB;
return dbRt;
}
public static void main(String[] args) {
Double [][] arrPoints= {{1.0,2.0,3.0,5.0},{1.0,2.0,3.0,5.0}};
/** 預測 w為1 b為0*/
System.out.println(getLinePara(arrPoints)[0]);
System.out.println(getLinePara(arrPoints)[1]);
/**測試結果與預測相同*/
}
}