非負矩陣分解(NMF)原理及算法實現


一、矩陣分解回想

矩陣分解是指將一個矩陣分解成兩個或者多個矩陣的乘積。對於上述的用戶-商品(評分矩陣),記為能夠將其分解為兩個或者多個矩陣的乘積,如果分解成兩個矩陣和 。我們要使得矩陣和 的乘積能夠還原原始的矩陣

當中,矩陣表示的是m個用戶於k個主題之間的關系,而矩陣表示的是k個主題與n個商品之間的關系

通常在用戶對商品進行打分的過程中,打分是非負的,這就要求:

這便是非負矩陣分解(NMF)的來源。

二、非負矩陣分解

2.1、非負矩陣分解的形式化定義

上面介紹了非負矩陣分解的基本含義。簡單來講,非負矩陣分解是在矩陣分解的基礎上對分解完畢的矩陣加上非負的限制條件。即對於用戶-商品矩陣找到兩個矩陣和 ,使得:

同一時候要求:

2.2、損失函數

為了能夠定量的比較矩陣的近似程度,提出了兩種損失函數的定義方式:
歐幾里得距離

KL散度

在KL散度的定義中,。當且僅當時取得等號。

當定義好損失函數后,須要求解的問題就變成了例如以下的形式,相應於不同的損失函數:

求解例如以下的最小化問題:

2.3、優化問題的求解

乘法更新規則,詳細操作例如以下:

對於歐幾里得距離的損失函數:

對於KL散度的損失函數:

上述的乘法規則主要是為了在計算的過程中保證非負,而基於梯度下降的方法中,加減運算無法保證非負。事實上上述的懲罰更新規則與梯度下降的算法是等價的。以下以平方距離為損失函數說明上述過程的等價性:

平方損失函數能夠寫成:

使用損失函數對求偏導數:

依照梯度下降法的思路:

即為:

,即能夠得到上述的乘法更新規則的形式。

2.4、非負矩陣分解的實現

 1 from numpy import *
 2 from pylab import *
 3 from numpy import *
 4 
 5 def load_data(file_path):
 6     f = open(file_path)
 7     V = []
 8     for line in f.readlines():
 9         lines = line.strip().split("\t")
10         data = []
11         for x in lines:
12             data.append(float(x))
13         V.append(data)
14     return mat(V)
15 
16 def train(V, r, k, e):
17     m, n = shape(V)
18     #先隨機給定一個W、H,保證矩陣的大小
19     W = mat(random.random((m, r)))
20     H = mat(random.random((r, n)))
21 #K為迭代次數
22     for x in range(k):
23         #error
24         V_pre = W * H
25         E = V - V_pre
26         #print E
27         err = 0.0
28         for i in range(m):
29             for j in range(n):
30                 err += E[i,j] * E[i,j]
31         print(err)
32         data.append(err)
33 
34         if err < e:
35             break
36 #權值更新
37         a = W.T * V
38         b = W.T * W * H
39         #c = V * H.T
40         #d = W * H * H.T
41         for i_1 in range(r):
42             for j_1 in range(n):
43                 if b[i_1,j_1] != 0:
44                     H[i_1,j_1] = H[i_1,j_1] * a[i_1,j_1] / b[i_1,j_1]
45 
46         c = V * H.T
47         d = W * H * H.T
48         for i_2 in range(m):
49             for j_2 in range(r):
50                 if d[i_2, j_2] != 0:
51                     W[i_2,j_2] = W[i_2,j_2] * c[i_2,j_2] / d[i_2, j_2]
52 
53     return W,H,data
54 
55 
56 
57 
58 if __name__ == "__main__":
59     #file_path = "./data_nmf"
60     # file_path = "./data1"
61     data = []
62     # V = load_data(file_path)
63     V=[[5,3,2,1],[4,2,2,1,],[1,1,2,5],[1,2,2,4],[2,1,5,4]]
64     W, H ,error= train(V, 2, 100, 1e-5 )
65     print (V)
66     print (W)
67     print (H)
68     print (W * H)
69     n = len(error)
70     x = range(n)
71     plot(x, error, color='r', linewidth=3)
72     plt.title('Convergence curve')
73     plt.xlabel('generation')
74     plt.ylabel('loss')
75     show()

 這里需要注意訓練時r值的選擇:r可以表示和主題數或者你想要的到的特征數

K值的選擇:k表示訓練的次數,設置的越大模型的擬合效果越好,但是具體設置多少,要根據性價比看,看誤差曲線的變化


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM