論文筆記之:Deep Attributes Driven Multi-Camera Person Re-identification


Deep Attributes Driven Multi-Camera Person Re-identification 
2017-06-28  21:38:55  

 

  【Motivation】

  本文的網絡設計主要分為三個部分:

    Stage 1: Fully-supervised dCNN training
    Stage 2: Fine-tuning using attributes triplet loss
    Stage 3:Final fine-tuning on the combined dataset

  

  大致的網絡網絡結構以及流程圖,如下所示:

  從這里,可以大致看出本文 屬性識別的方法:sem-supervised learning 的方法來提升 網絡識別能力,之所以識別能力不強,是因為現有的 attribute dataset 都是非常小的,這就導致了 deep neural network 訓練不夠充分,而手工標注這些數據又非常的困難,耗時費力。比較尷尬。。。

  

  本文首先在全部標注的行人屬性識別網絡上進行 監督訓練,以得到初始的【屬性識別網絡】,此時的識別網絡能力是不足的,即:weak。如何進一步的提升屬性識別的能力呢?本文考慮到這么一個現象同一個人的屬性,應該有類似的屬性識別結果,基於該觀察,作者利用 triplet loss function,在 instance 的基礎上進行屬性識別能力的改進:

  【三元組的構建】

  1. select an anchor sample 

  2. select another positive sample with the same person ID ; 

  3. select a negative sample with different person ID. 

  

  而這部分網絡訓練的目標是:使得同一個人的屬性輸出結果盡可能的一致,而不同 instance 之間的屬性輸出結果差距盡可能的大,作者稱該 triplet loss 為:attribute triplet loss。這部分的目標函數為:

  

  其中,D(.) 代表兩個二元屬性向量之間的距離函數,所以對應的損失函數可以表達為:

  

 

    其中 E 表示 triplet 的個數。

  但是,作者提到上述損失函數可能存在一些問題the person ID label is not strong enough to train the dCNN with accurate attributes. Without proper constraints, the above loss function may generate meaningless attribute labels and easily overfit the training dataset U

  於是,作者在上述損失函數的基礎上添加了幾條規則化項:

  

 

  公式(4)不僅確保了同一個人擁有相似的屬性,並且避免了meaningless attribute。

  

  【在組合的數據集上進行微調】:

  用第二部分得到微調后的網絡,預測一部分無標簽數據,並且將這部分無標簽數據 和 原始標注好的數據,一起來微調 屬性識別網絡。

  

  最后,就是如何利用這些屬性進行最終的再識別???

  其實就是依賴於 屬性之間的差距,借用作者摘要當中的話來說就是:

  By directly using the deep attributes with simple Cosine distance, we have obtained surprisingly good accuracy on four person ReID datasets. Experiments also show that a simple distance metric learning modular further boosts our method, making it significantly outperform many recent works.  
  

  

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM