深度神經網絡多任務學習(Multi-Task Learning in Deep Neural Networks)


MTL 有很多形式:聯合學習(joint learning)、自主學習(learning to learn)和帶有輔助任務的學習(learning with auxiliary task)等。一般來說,優化多個損失函數就等同於進行多任務學習。即使只優化一個損失函數(如在典型情況下),也有可能借助輔助任務來改善原任務模型。

兩種深度學習 MTL 方法

1、參數硬(hard)共享

在實際應用中,通常通過在所有任務之間共享隱藏層,同時保留幾個特定任務的輸出層來實現。

共享 Hard 參數大大降低了過擬合的風險。這很直觀:我們同時學習的工作越多,我們的模型找到一個含有所有任務的表征就越困難,而過擬合我們原始任務的可能性就越小。

2、參數軟(soft)共享

在軟參數共享中,每個任務都有單獨的模型,每個模型包含各自的參數。模型參數之間的距離會作為正則項來保證參數盡可能相似。

 

推薦系統CTR(CVR)預估模型(多任務學習)之ESMMhttps://arxiv.org/abs/1804.07931

ESMM(Entire Space Multi-Task Model,ESMM)模型創新地利用用戶行為序列數據,在完整的樣本數據空間同時學習點擊率和轉化率(post-view clickthrough&conversion rate,CTCVR),解決了傳統CVR預估模型難以克服的樣本選擇偏差(sample selection bias)和訓練數據過於稀疏(data sparsity )的問題。

傳統的CVR模型使用有點擊行為的樣本集來訓練,同時訓練好的模型又需要在整個樣本空間做預測推斷,即訓練樣本從整體樣本空間的一個較小子集中提取,而訓練得到的模型卻需要對整個樣本空間中的樣本做推斷預測。【樣本選擇偏差】

ESMM模型兩個主要的特點:

1、在整個樣本空間建模

2、共享特征表示。ESMM模型借鑒遷移學習的思路,兩個子網絡的embedding層共享embedding向量(特征表示)詞典。網絡的embedding層把大規模稀疏的輸入數據映射到低維的表示向量,該層的參數占了整個網絡參數的絕大部分,需要大量的訓練樣本才能充分學習得到。由於CTR任務的訓練樣本量要大大超過CVR任務的訓練樣本量,ESMM模型中特征表示共享的機制能夠使得CVR子任務也能夠從只有展現沒有點擊的樣本中學習,從而能夠極大地有利於緩解訓練數據稀疏性問題。

ESMM模型的損失函數由兩部分組成,對應於pCTR 和pCTCVR 兩個子任務,其形式如下:

在CTR任務中,有點擊行為的展現事件構成的樣本標記為正樣本,沒有點擊行為發生的展現事件標記為負樣本;在CTCVR任務中,同時有點擊和購買行為的展現事件標記為正樣本,否則標記為負樣本。

 

模型的實現

ESMM模型由兩個結構完全相同的子網絡連接而成,我們把子網絡對應的模型稱之為Base模型。

base 模型:在Base模型的網絡輸入包括user field和item field兩部分。user field主要由用戶的歷史行為序列構成,具體地說,包含了用戶瀏覽的產品ID列表,以及用戶瀏覽的品牌ID列表、類目ID列表等;不同的實體ID列表構成不同的field。網絡的Embedding層,把這些實體ID都映射為固定長度的低維實數向量;接着之后的Field-wise Pooling層把同一個Field的所有實體embedding向量求和得到對應於當前Field的一個唯一的向量;之后所有Field的向量拼接(concat)在一起構成一個大的隱層向量;接着大的隱層向量之上再接入諾干全連接層,最后再連接到只有一個神經元的輸出層。

定義損失函數:

y = labels['cvr']
cvr_loss = tf.reduce_sum(tf.keras.backend.binary_crossentropy(y, prop), name="cvr_loss")
ctr_loss = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(labels=labels['ctr'], logits=ctr_logits), name="ctr_loss")
loss = tf.add(ctr_loss, cvr_loss, name="ctcvr_loss")

 

損失函數的設計:

https://www.zhihu.com/question/268105631

 

 

 

 

http://xudongyang.coding.me/esmm/

http://xudongyang.coding.me/esmm-1/


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM