一、摘要:
本文模型 LRML(潛在相關度量學習)是一種新的度量學習方法的推薦。【旨在學習用戶和項目之間的相關關系,而不是簡單的用戶和項目之間的push和pull關系,push和pull主要針對LMNN算法】
為了做到這一點,本文采用了一個增強的存儲器模塊,並通過這些記憶塊來構建用戶和項目潛在的關系。
二、引言:
(1)MF的總體思想如下:用戶和項目被表示為一個矩陣,然后被分解為潛在的組件,這些組件也可以被解釋為使用內部產品來建模用戶和項目之間的關系。但其內積違反了三角不等式,故CML被提出。
(2)CML的缺點:
- CML的評分函數具有明顯的幾何約束性。給定用戶-項目交互,CML試圖將這對匹配到向量空間中的相同點。【考慮到協作排序問題的多對多性質,從幾何角度來看,在向量空間中執行良好的擬合可能確實具有挑戰性,特別是因為每個用戶和項目的最佳點是在向量空間中的單個點。直觀地,這試圖將用戶及其所有交互項目放入同一點上,即幾何上擁擠且不靈活。雖然可以學習用戶-用戶和項-項相似性集群,但這是以對問題進行排序的精確性和准確性為代價的,特別是對於存在數百萬交互的大型數據集】
- CML是一個不適定的代數系統[36],它進一步加強和加劇了幾何不靈活性問題。
原因:
本文模型LRML(潛在關系度量學習)學習用戶和項目交互之間的自適應關系向量,找到每個交互對之間的最優翻譯向量。
(3)LRML與CML的區別:CML聚於一點
(4)注意力機制:本文主要用來學習用戶和項目之間的交互關系。
三、模型:
CML:令 p ≈ q,會使所有的 用戶項目向量聚集於一點
LRML:p + r ≈ q,r為用戶-項目關系向量。
(1)Embedding Layer
P = Rd×|U|,Q=Rd×|I|,|U|、|I|是全部用戶和項目的數量,d是用戶和項目向量的維度。
(2)LRAM——Latent Relational Attentive Memory Module
①聯合用戶-項目向量:Joint User-Item Embedding.
其中s為聯合向量。s∈Rd,⊙是 Hadamard product。【矩陣乘法】
②User-Item Key Addressing.
③Generating Latent Relations via Memory-based Attention.
(3)Optimization and Learning
①Relational Modeling Layer.
②Objective Function.