Joint Disentangling and Adaptation for Cross-Domain Person Re-Identification (ECCV 2020)


1. Motivation

  • 目前大部分域自適應方法一般是分為兩種:input-levelfeature-level。這些方法大部分都是在特征空間中進行操作,而這些特征同時包含 id-relatedid-unrelated 信息,其中的 id-unrelated 信息會干擾和限制域自適應的性能。
  • Cross-domain Re-ID 需要解決兩個問題:disentangling (解耦) 和 adaption (域適應) , 目前大部分方法只解決其中一個問題,因此如何在缺少目標域監督信息的情況下,同時解決這兩個問題,縮小 domain gap 成為了 一個值得解決的問題。

2. Method

2.1 Idea

  • 將潛在的特征空間分為三部分:shared appearance space (用於捕捉 id-relate 信息),source structure space (姿態,視角,背景等 id-unrelated 信息) , target structure space.

2.2 Network

Disentangling Module
  • \(E_{app}\): 用於提取兩個域 id-related 信息,參數共享;
  • \(E_{str}\): 用於提取兩個域各自的 id-unrelated 信息, 參數不共享;
  • \(G^t\), \(G^s\): 目標域和源域的生成器,通過重組 id-related 和 id-unrelated 信息生成對應模態的圖片
  • \(D_{dom}\): 用於判別來自源域或者目標域
  • \(D_{img}\): 用於判別圖像是真亦或是來自生成的偽造圖像
Loss Function
  • Cross-domain Generation

    為了保證圖像生成器偽造的質量以及提高特征的判別性,作者用循環一致性損失和交叉熵損失來約束:

圖像生成的對抗損失如下:

  • Adaptation Module

    為了消除兩個域的差異,我們要實現 id-relate 信息也是域無關的,也就是不論是目標域還是源域,對於同一個id的圖像,提取的 id-relate 特征應該是相似的,因此引入了一個domain的判別器損失:

  • Self-training

    用聚類的方法,給目標域的圖像打偽標簽,用 K-reciprocal 來衡量點對之間的距離,以迭代的方式進行網絡微調,獲得的偽標簽通過交叉熵損失來約束 id-relate 編碼器 \(E_{app}\)

  • Discussion

    Disentangling 和 Adaptation 兩個模塊互相有積極的作用:

    i ) 通過對抗學習,Disentangling Module 學習到 id-relate 信息,將 id-unrelate 信息剔除, 避免其對域適應過程產生干擾

    ii ) Adaptation Module 可以減輕 Disentangling Module 的任務, 通過 domain 對齊可以使得解耦更加容易

3. Experiments

3.1 Comparison with the SOTA

  • 作者提到本文的 Disentangling Module 可以用到其他 Adaptation 方法中去,可以提升性能。
3.2 Ablation Study

  • 只添加 Disentangling Module 可以提升五個點左右,因此可以看出來,即使沒有域適應,只需要把id-unrelate 信息盡可能剔除,一樣可以提升性能。
  • 由表中可以看出來,self-training 對性能的提升還是比較大的

4. Conclusion

  • 把圖像解耦成 id-related 和 id-unrelated 信息,在 id-relate 特征空間中進行 domain 對齊。
  • 將解耦和域適應結合,用生成的方式進行域遷移,解耦和域適應兩個模塊互相促進。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM