fm 講解加代碼


轉自:

博客

http://blog.csdn.net/google19890102/article/details/45532745/

github

 https://github.com/zhaozhiyong19890102/Python-Machine-Learning-Algorithm/tree/master/Chapter_3%20Factorization%20Machine

一、因子分解機FM的模型

   因子分解機(Factorization Machine, FM)是由Steffen Rendle提出的一種基於矩陣分解的機器學習算法。

1、因子分解機FM的優勢

    對於因子分解機FM來說,最大的特點是對於稀疏的數據具有很好的學習能力。現實中稀疏的數據很多,例如作者所舉的推薦系統的例子便是一個很直觀的具有稀疏特點的例子。

2、因子分解機FM的模型

    對於度為2的因子分解機FM的模型為:
其中,參數 表示的是兩個大小為 的向量 和向量 的點積:
其中, 表示的是系數矩陣 的第 維向量,且 稱為超參數。在因子分解機FM模型中,前面兩部分是傳統的線性模型,最后一部分將兩個互異特征分量之間的相互關系考慮進來。
    因子分解機FM也可以推廣到高階的形式,即將更多互異特征分量之間的相互關系考慮進來。

二、因子分解機FM算法

    因子分解機FM算法可以處理如下三類問題:
  1. 回歸問題(Regression)
  2. 二分類問題(Binary Classification)
  3. 排序(Ranking)
在這里主要介紹回歸問題和二分類問題。

1、回歸問題(Regression)

    在回歸問題中,直接使用 作為最終的預測結果。在回歸問題中使用最小均方誤差(the least square error)作為優化的標准,即
其中, 表示樣本的個數。

2、二分類問題(Binary Classification)

    與Logistic回歸類似,通過階躍函數,如Sigmoid函數,將 映射成不同的類別。在二分類問題中使用logit loss作為優化的標准,即
其中, 表示的是階躍函數Sigmoid。具體形式為:

三、因子分解機FM算法的求解過程

1、交叉項系數

    在基本線性回歸模型的基礎上引入交叉項,如下:
  表示共有n個特征:
 
若是這種直接在交叉項 的前面加上交叉項系數 的方式在稀疏數據的情況下存在一個很大的缺陷,即在對於觀察樣本中未出現交互的特征分量,不能對相應的參數進行估計。
    對每一個特征分量 引入輔助向量 ,利用 對交叉項的系數 進行估計,即
這就對應了一種矩陣的分解。對 值的限定,對FM的表達能力有一定的影響。

2、模型的求解

這里要求出 ,主要采用了如公式 求出交叉項。具體過程如下:

注:上式中: 

 ,且,倒數第二行中,將 j 換成 i,原式不變,所以能得到倒數第一行的形式。

3、基於隨機梯度的方式求解

對於回歸問題:
對於二分類問題:
 
最終交叉項要估計的參數每一個是:V i,f
有n個特征, 每個特征有k個分量,那交叉項的參數個數就是:n*k。

四、實驗(求解二分類問題)

1、實驗的代碼:

[python]  view plain  copy
 
  1. #coding:UTF-8  
  2.   
  3. from __future__ import division  
  4. from math import exp  
  5. from numpy import *  
  6. from random import normalvariate#正態分布  
  7. from datetime import datetime  
  8.   
  9. trainData = 'E://data//diabetes_train.txt'  
  10. testData = 'E://data//diabetes_test.txt'  
  11. featureNum = 8  
  12.   
  13. def loadDataSet(data):  
  14.     dataMat = []  
  15.     labelMat = []  
  16.       
  17.     fr = open(data)#打開文件  
  18.       
  19.     for line in fr.readlines():  
  20.         currLine = line.strip().split()  
  21.         #lineArr = [1.0]  
  22.         lineArr = []  
  23.           
  24.         for i in xrange(featureNum):  
  25.             lineArr.append(float(currLine[i + 1]))  
  26.         dataMat.append(lineArr)  
  27.           
  28.         labelMat.append(float(currLine[0]) * 2 - 1)  
  29.     return dataMat, labelMat  
  30.   
  31. def sigmoid(inx):  
  32.     return 1.0 / (1 + exp(-inx))  
  33.   
  34. def stocGradAscent(dataMatrix, classLabels, k, iter):  
  35.     #dataMatrix用的是mat, classLabels是列表  
  36.     m, n = shape(dataMatrix)  
  37.     alpha = 0.01  
  38.     #初始化參數  
  39.     w = zeros((n, 1))#其中n是特征的個數  
  40.     w_0 = 0.    #截距項
  41.     v = normalvariate(0, 0.2) * ones((n, k))   #交叉項
  42.       
  43.     for it in xrange(iter):  
  44.         print it  
  45.         for x in xrange(m):#隨機優化,對每一個樣本而言的  
  46.             inter_1 = dataMatrix[x] * v  
  47.             inter_2 = multiply(dataMatrix[x], dataMatrix[x]) * multiply(v, v)#multiply對應元素相乘  
  48.             #完成交叉項  
  49.             interaction = sum(multiply(inter_1, inter_1) - inter_2) / 2.  
  50.               
  51.             p = w_0 + dataMatrix[x] * w + interaction#計算預測的輸出  
  52.           
  53.             loss = sigmoid(classLabels[x] * p[0, 0]) - 1  
  54.             print loss  
  55.           
  56.             w_0 = w_0 - alpha * loss * classLabels[x]  
  57.               
  58.             for i in xrange(n):  
  59.                 if dataMatrix[x, i] != 0:  
  60.                     w[i, 0] = w[i, 0] - alpha * loss * classLabels[x] * dataMatrix[x, i]  
  61.                     for j in xrange(k):  
  62.                         v[i, j] = v[i, j] - alpha * loss * classLabels[x] * (dataMatrix[x, i] * inter_1[0, j] - v[i, j] * dataMatrix[x, i] * dataMatrix[x, i])  
  63.           
  64.       
  65.     return w_0, w, v  
  66.   
  67. def getAccuracy(dataMatrix, classLabels, w_0, w, v):  
  68.     m, n = shape(dataMatrix)  
  69.     allItem = 0  
  70.     error = 0  
  71.     result = []  
  72.     for x in xrange(m):  
  73.         allItem += 1  
  74.         inter_1 = dataMatrix[x] * v  
  75.         inter_2 = multiply(dataMatrix[x], dataMatrix[x]) * multiply(v, v)#multiply對應元素相乘  
  76.         #完成交叉項  
  77.         interaction = sum(multiply(inter_1, inter_1) - inter_2) / 2.  
  78.         p = w_0 + dataMatrix[x] * w + interaction#計算預測的輸出  
  79.           
  80.         pre = sigmoid(p[0, 0])  
  81.           
  82.         result.append(pre)  
  83.           
  84.         if pre < 0.5 and classLabels[x] == 1.0:  
  85.             error += 1  
  86.         elif pre >= 0.5 and classLabels[x] == -1.0:  
  87.             error += 1  
  88.         else:  
  89.             continue  
  90.           
  91.       
  92.     print result  
  93.       
  94.     return float(error) / allItem  
  95.           
  96.      
  97. if __name__ == '__main__':  
  98.     dataTrain, labelTrain = loadDataSet(trainData)  
  99.     dataTest, labelTest = loadDataSet(testData)  
  100.     date_startTrain = datetime.now()  
  101.     print "開始訓練"  
  102.     w_0, w, v = stocGradAscent(mat(dataTrain), labelTrain, 20, 200)  
  103.     print "訓練准確性為:%f" % (1 - getAccuracy(mat(dataTrain), labelTrain, w_0, w, v))  
  104.     date_endTrain = datetime.now()  
  105.     print "訓練時間為:%s" % (date_endTrain - date_startTrain)  
  106.     print "開始測試"  
  107.     print "測試准確性為:%f" % (1 - getAccuracy(mat(dataTest), labelTest, w_0, w, v))    

2、實驗結果:

五、幾點疑問

    在傳統的非稀疏數據集上,有時效果並不是很好。在實驗中,我有一點處理,即在求解Sigmoid函數的過程中,在有的數據集上使用了帶閾值的求法:
[python]  view plain  copy
 
  1. def sigmoid(inx):  
  2.     #return 1.0 / (1 + exp(-inx))  
  3. return 1. / (1. + exp(-max(min(inx, 15.), -15.)))   

六 圖片

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM