Partial Adversarial Domain Adaptation學習筆記


Partial Adversarial Domain Adaptation學習筆記

tip

對目標域的樣本預測值進行基於源域類別重要性權值的平均化。

Abstract

作者首先提出部分域適應的問題設定,即目標域的類別空間是源域的類別空間的子集。之后提出 Partial Adversarial Domain Adaptation (PADA),能在源域分類器以及域對抗部分的訓練中自動把對屬於非共享類別中樣本的權重降低,來減輕負遷移問題;並通過對齊共享類別空間中樣本的特征分布來促進正向遷移。

Introduction

作者提出的PADA是一個端到端的框架,並在很大程度上擴展了域對抗適應方法的能力以解決新的部分域適應情況。PADA在共享類別空間中對齊源域樣本和目標域樣本的特征分布,更重要的是,識別屬於非共享類別的無關源域樣本,並自動降低它們的重要性權值。與以前的方法相比,關鍵的改進是能夠同時促進相關源域數據的正向傳輸和減輕不相關源數據的負向傳輸

Partial Adversarial Domain Adaptation

本文作者提出部分域適應,源域表示為\(D_s=\{(x_i,y_i)\}^{n_s}_{i=1}\),其中\(n_s\)表示源域樣本的數量,源域擁有類別的個數為\(|C_s|\)。目標域表示為\(D_t=\{x_i\}^{n_s+n_t}_{i=n_s+1}\),其中\(n_t\)表示目標域未標注樣本的數量,目標域擁有類別的個數為\(|C_t|\)。目標域的類別空間是源域類別空間的子集:\(C_t\sub C_s\),即\(|C_s|>|C_t|\).源域與目標域的概率分布分別由p與q表示,且$p_{C_t}\neq q \(,其中\)p_{C_t}\(表示源域中屬於目標域類別空間\)C_t\(的樣本的分布。本文的目標就是設計一個深度神經網絡模型,通過學習可遷移的特征\)f=G_f(x)\(以及適應分類器\)y=G_y(f)$來減小域間差異。

在部分域適應中存在兩大難點:

  • 由於目標域的樣本未標注,源域域目標域的概率分布不同,所以在源域\(D_s\)訓練的分類器\(G_y\)不能直接運用到目標域\(D_t\)
  • 無法得知源域類別空間\(C_s\)中的哪部分與目標域類別空間\(C_t\)共享,因為\(C_t\)在訓練中是無法訪問的。

一方面,該方法要減輕由源域中非共享類別\(C_s/C_t\)造成的負遷移;另一方面,減少\(p_{C_t}\)\(q\)之間的分布差異,促進正向遷移,實現共享類別空間\(C_t\)中的知識遷移。

Domain Adversarial Neural Network

對抗網絡能夠有效地提取可遷移特征,其中包括一個域分類器\(G_d\)來區別源域與目標域,還有一個特征提取器經過微調后來欺騙域分類器。

為了得到域不變性特征\(f\),通過最大化域分類器\(G_d\)的損失來學習特征提取器\(G_f\)的參數\(\theta_f\),通過最小化域分類器的損失來學習\(G_d\)的參數\(\theta_d\)的參數。同時還要最小化標簽分類器\(G_y\)的損失。

則對抗網絡的目標函數為:

\[C_0(\theta_f,\theta_y,\theta_d)=\frac{1}{n_s}\sum\limits_{x_i\in D_s}L_y(G_y(G_f(x_i)),y_i)-\frac{\lambda}{n_s+n_t}\sum\limits_{x_i \in D_s\cup D_t}L_d(G_d(G_f(x_i)),d_i)(1) \]

其中的\(\lambda\)參數為權衡參數。當訓練收斂后,參數\(\hat{\theta}_f,\hat{\theta}_y,\hat{\theta}_d\)表達公式(1)的鞍點:

\[(\hat{\theta}_f,\hat{\theta}_y)=arg\min\limits_{\theta_f,\theta_y}C_0(\theta_f,\theta_y,\theta_d) \]

\[(\hat{\theta}_d)arg\max\limits_{\theta_d}C_0(\theta_f,\theta_y,\theta_d) \]

Partial Adversarial Domain Adaptation

在部分域適應問題中,由於目標域的類別空間是源域類別空間的子集,所以直接進行遷移的話會造成一部分目標域的樣本被強迫與源域非共享類別中的樣本對齊,從而造成負遷移。由於在顯示情況中,我們使用非常大的數據集作為源域的樣本,而目標域的數據集較小,所以\(|C_t|<< |C_s/C_t|\)。於是要想方法減小甚至消除非共享類別樣本造成的負遷移的影響。

本文提出PADA方法,它的主要思想就是在源域分類器以及域對抗網絡的訓練中降低源域屬於非共享類別樣本的重要性權值。作者發現源域分類器對於每一個源域樣本\(x_i\)輸出的\(\hat{y}_i=G_y(x_i)\)很好地表征了樣本\(x_i\)屬於源域\(|C_s|\)個類別中的某一類的概率。

因為源域非共享類別空間和目標類別空間是不相交的,所以目標樣本應該與非共享類別空間中的源域樣本顯著不同。因此,將目標域樣本對齊到源域非共享類別的概率\(y^k_i,k\in C_s/C_t\)是很小的。但源域分類器可能會在一些目標域樣本上犯一些錯誤,並為錯誤類別分配較大概率。為了消除這種錯誤,作者提出對目標域所有樣本的標簽預測值進行平均化,因此,表示每個源類對訓練的貢獻的權重可以計算如下:

\[\gamma=\frac{1}{n_t}\sum\limits_{i=1}\limits^{n_t}\hat{y_i} \]

其中\(\gamma\)是一個\(|C_s|\)維的權重向量,其中的每一維代表對應的源域類別的重要性。具體來說,由於目標域的樣本不屬於源域的非共享類別空間,所以對應非共享類別的權重一定比共享類別的權重低。由於\(\gamma\)的定義\(\sum\limits^{|C _s|}\limits_{k=1}\gamma_k=1\),有可能一些權重的值會非常小,所以對\(\gamma\)的值進行如下調整:\(\gamma\leftarrow \gamma/max(\gamma)\)

於是PADA的目標函數為:

image-20201113104627505

這里的\(y_i\)表示源域樣本\(x_i\)的ground truth標簽,而\(\gamma_{y_i}\)表示相應的類別權重,$\lambda \(表示相應的衡量參數,優化任務最終找到參數\)\hat{\theta_f},\hat{\theta_y},\hat{\theta_d}$滿足:

image-20201113104928606


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM