【論文筆記】2020ICML SimCLR


論文鏈接

論文鏈接:https://arxiv.org/pdf/2002.05709.pdf

代碼鏈接:https://github.com/google-research/simclr

基本思想

對同一張圖像x進行不同的data augmentation,得到多個view,這些view要相互吸引;對於來自不同圖像的view,要相互遠離。論文相當關鍵的一部份就是研究了data augmentation對於unsupervised contrastive learning的幫助。

Data augmentation對於特征學習的重要性

Data augmentation對於訓練好unsupervised contrastive learning的模型非常的關鍵。一些強力的augmentation技巧可以大幅提升SimCLR,但對於原本supervised的方法卻不見得有幫助。論文中提到一個細節:單純使用random crop其實沒什麽效果,要加上color distortion后才會有顯著的效果。這是因為原本的 random crop 切出來的圖片 在pixel value的分布其實相差不大,主要是在scale與offset上的不同,相當不利於CNN的contrastive learning,而這兩種加上color distortion后的 pixel value的分布就會有明顯的變化,使得適合作為contrastive learning的學習對象。

Backbone

ResNet-50(4x),即網絡寬度是ResNet-50的4倍。

在representation和contrastive loss之間添加全連接層

通過MLP,也就是全連接層,可以學習出數據的非線性信息,是對上一步的一個增強。通過這一步的學習就可以得出同一類別數據的共同信息特點。在representation與contrastive loss間使用可學習的non-linear projection,避免計算 similarity 的 loss function在訓練時丟掉一些重要的feature。論文中使用非常簡單的單層MLP,配上ReLU activation function作為non-linear projection。

SimCLR性能如何?

在ImageNet數據集上,SimCLR能得到與2012年AlexNet相同的性能,但是僅僅使用了1%的標簽,這歸功於兩點:

  1. 首先在具有殘差連接的深度卷積網絡上做無監督表征學習。
  2. 之后在具有標簽的少量數據集上微調。

 

參考資料

[1] https://zhuanlan.zhihu.com/p/197802321

[2] 深度學習之父Hinton:下一代神經網絡

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM