CVPR 2020幾篇論文內容點評:目標檢測跟蹤,人臉表情識別,姿態估計,實例分割等


CVPR 2020幾篇論文內容點評:目標檢測跟蹤,人臉表情識別,姿態估計,實例分割等

CVPR 2020中選論文放榜后,最新開源項目合集也來了。

本屆CPVR共接收6656篇論文,中選1470篇,“中標率”只有22%,堪稱十年來最難的一屆

目標檢測

論文題目:

Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection

 

 

 

 

 

 


本文首先指出了基於錨點檢測與無錨點檢測的本質區別,在於如何定義正、負訓練樣本,從而導致兩者之間的性能差距。

研究人員提出了一種自適應訓練樣本選擇 (ATSS),根據對象的統計特征自動選擇正樣本和負樣本。它顯著地提高了基於錨點和無錨點探測器的性能,並彌補了兩者之間的差距。

最后,還討論了在圖像上每個位置平鋪多個錨點來檢測目標的必要性。

論文地址:
https://arxiv.org/abs/1912.02424

代碼:
https://github.com/sfzhang15/ATSS

目標跟蹤

論文題目:

MAST: A Memory-Augmented Self-supervised Tracker

 

 

 

 

 

 

 

 

 

這篇論文提出了一種密集的視頻跟蹤模型 (無任何注釋),在現有的基准上大大超過了之前的自監督方法(+15%),並實現了與監督方法相當的性能。

首先通過深入的實驗,重新評估用於自監督訓練和重建損失的傳統選擇。其次,通過使用一個重要的內存組件來擴展架構,從而進一步改進現有的方法。而后,對大規模半監督視頻對象分割進行了基准測試,提出了一種新的度量方法:可泛化 (generalizability)。

論文地址:
https://arxiv.org/abs/2002.07793

代碼:
https://github.com/zlai0/MAST

實例分割

論文題目:

PolarMask: Single Shot Instance Segmentation with Polar Representation

 

 

 

 

 

 

 

 

 

 

 

 

 

 

本文提出了PolarMask方法,是一種single shot的實例分割框架。PolarMask基於FCOS,把實例分割統一到了FCN的框架下。

FCOS本質上是一種FCN的dense prediction的檢測框架,可以在性能上不輸anchor based的目標檢測方法。

貢獻在於,把更復雜的實例分割問題,轉化成在網絡設計和計算量復雜度上和物體檢測一樣復雜的任務,把對實例分割的建模變得簡單和高效。

論文地址:
https://arxiv.org/abs/1909.13226

代碼:
https://github.com/xieenze/PolarMask

 

NAS

論文題目:

CARS: Continuous Evolution for Efficient Neural Architecture Search

 

 

 

 

在本文中,研究人員開發了一種高效的連續演化方法來搜索神經網絡。

在最近的迭代中,在一個超網中共享參數的種群中的架構,將在具有幾個epoch的訓練數據集上進行調優。下一個演化迭代中的搜索將直接繼承超網和種群,加速了最優網絡的生成。進一步采用非支配排序策略,僅保留Pareto前沿的結果,以精確更新超網。

經過0.4天的GPU連續搜索,可以生成多個模型大小和性能不同的神經網絡。這些網絡超過了基准ImageNet數據集上最先進方法產生的網絡。

論文地址:
https://arxiv.org/abs/1909.04977

代碼(即將開源):
https://github.com/huawei-noah/CARS

人體姿態估計

2D人體姿態估計

論文題目:

The Devil is in the Details: Delving into Unbiased Data Processing for Human Pose Estimation

 

 

 

 

 

 

 

 

 

 

 

所有計算機視覺的任務都需要和數據處理打交道,但在關鍵點檢測問題上,數據處理顯得尤為重要。在關鍵點檢測任務上,數據處理尚未被系統的學習,因此這篇文章關注了人體關鍵點檢測問題的數據處理,認為它是算法的一個極其重要的組成部分。

在系統地分析這個問題的時候,發現現有的所有的state-of-the-art在這個環節上都會存在兩個方面的問題:一個是在測試過程中,如果使用flip ensemble時,由翻轉圖像得到的結果和原圖得到的結果並不對齊。另外一個是使用的編碼解碼(encoding-decoding)方法存在較大的統計誤差。

這兩個問題耦合在一起,產生的影響包括:估計的結果不准確、復現指標困難、有較大可能使得實驗的結果結論不可靠。

論文地址:
https://arxiv.org/abs/1911.07524

代碼:
https://github.com/HuangJunJie2017/UDP-Pose

人臉表情識別

論文題目:

Suppressing Uncertainties for Large-Scale Facial Expression Recognition

 

 

 

 

 

本文提出了一種簡單而有效的自修復網絡(SCN),它能有效地抑制不確定性,防止深度網絡對不確定的人臉圖像進行過擬合。

具體來說,SCN從兩個不同的方面抑制了不確定性:⑴在小批量上的自關注機制,通過排名規則化對每個訓練樣本進行加權;⑵重新貼標簽機制,在排名最低的組中修改這些樣本的標簽。

論文地址:
https://arxiv.org/abs/2002.10392

代碼(即將開源):
https://github.com/kaiwang960112/Self-Cure-Network

3D人體姿態估計

論文題目:

VIBE: Video Inference for Human Body Pose and Shape Estimation

 

 

 

 

由於缺乏用於訓練的ground-truth三維運動數據,現有的基於視頻的最先進的方法無法生成准確和自然的運動序列。

為了解決這個問題,本文提出了身體姿態和形狀估計的視頻推理(VIBE),它利用了現有的大型動作捕捉數據集(AMASS)和未配對的、in-the-wild 2D關鍵點注釋。

關鍵創新是一個對抗性學習框架,它利用AMASS來區分真實的人類動作和由時間姿態、形狀回歸網絡產生的動作。

論文地址:
https://arxiv.org/abs/1912.05656

代碼:
https://github.com/mkocabas/VIBE

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM