CVPR 2020目標跟蹤多篇開源論文(上)


CVPR 2020目標跟蹤多篇開源論文(上)

1. SiamBAN:面向目標跟蹤的Siamese Box自適應網絡

作者團隊:華僑大學&中科院&哈工大&鵬城實驗室&廈門大學等

論文鏈接:https://arxiv.org/abs/2003.06761
代碼鏈接:https://github.com/hqucv/siamban
注:表現SOTA!速度高達40 FPS!性能優於DiMP、SiamRPN++和ATOM等網絡。
大多數現有的跟蹤器通常依賴於多尺度搜索方案或預定義的anchor boxes來准確估計目標的尺度和長寬比。不幸的是,它們通常要求啟發式的配置。為解決此問題,我們通過利用全卷積網絡(FCN)的表征能力,提出了一個簡單而有效的視覺跟蹤框架(名為Siamese Box Adaptive Network,SiamBAN)。SiamBAN將視覺跟蹤問題視為並行分類和回歸問題,因此可以直接對對象進行分類,並在統一的FCN中對它們的邊界框進行回歸。無先驗box 設計避免了與候選box 相關的超參數,從而使SiamBAN更加靈活和通用。在包括VOT2018,VOT2019,OTB100,NFS,UAV123和LaSOT在內的視覺跟蹤基准上進行的大量實驗表明,SiamBAN具有最先進的性能並以40 FPS的速度運行,證實了其有效性和效率。

 

 

 

 

 

 2. MAST:具有記憶增強功能的自監督目標跟蹤器

作者團隊:牛津大學VGG組

論文鏈接:https://arxiv.org/abs/2002.07793
代碼鏈接:https://github.com/zlai0/MAST
注:自監督目標跟蹤新網絡,表現SOTA!性能優於UVC、CorrFlow和CycleTime等網絡,且接近監督類跟蹤網絡。
最近自監督密集跟蹤的工作已取得了快速的進展,但是性能仍然遠遠達不到監督方法。我們提出了一種在視頻上訓練的密集跟蹤模型,該視頻模型沒有任何標注,可以在現有基准上大大超過以前的自監督方法(+15%),並且可以達到與監督方法相當的性能。在本文中,我們首先通過進行徹底的實驗,最終闡明最佳選擇,來重新評估用於自監督訓練和重建損失的傳統選擇。其次,我們通過使用關鍵的內存組件擴展我們的體系結構,進一步改進了現有方法。第三,我們以大規模的半監督視頻對象分割(也稱為密集跟蹤)基准,並提出了一個新的度量標准:generalizability。

 

 3. PrDiMP:目標跟蹤的概率回歸

 作者團隊:蘇黎世聯邦理工學院

論文鏈接:https://arxiv.org/abs/2003.12565
代碼鏈接:https://github.com/visionml/pytracking
注:在六大數據集上,表現SOTA!性能優於DiMP、ATOM和SiamRPN++等網絡,代碼現已開源!

 從根本上說,視覺跟蹤是在每個視頻幀中使目標狀態回歸的問題。盡管已經取得了重大進展,但跟蹤器仍然容易出現故障和不准確之處。因此,至關重要的是在目標估算中表示不確定性。盡管當前的主要范式依賴於估計與狀態有關的置信度得分,但是該值缺乏明確的概率解釋,使它的使用變得復雜。因此,在這項工作中,我們提出了概率回歸(probabilistic regression)公式,並將其應用於跟蹤。我們的網絡會根據輸入圖像預測目標狀態的條件概率密度。至關重要的是,我們的方法能夠對由於任務中不正確的標注和歧義而產生的標簽噪聲進行建模。通過最小化Kullback-Leibler散度來訓練回歸網絡。當應用於跟蹤時,我們的公式不僅允許輸出的概率表示,而且還可以顯著提高性能。我們的跟蹤器在六個數據集上設置了最新的技術,在LaSOT上實現了59.8%的AUC,在TrackingNet上實現了75.8%的成功。

 

 

 

 4. AutoTrack:通過自動時空正則化實現無人機目標跟蹤

作者團隊:同濟大學&新加坡國立大學&清華大學
論文鏈接:https://arxiv.org/abs/2003.12949
代碼鏈接:https://github.com/vision4robotics/AutoTrack
注:無人機目標跟蹤新網絡,在CPU上高達 60 FPS!性能優於ECO-HC、ARCF-HC等網絡

 現有的大多數基於判別相關濾波器(DCF)的跟蹤器試圖引入預定義的正則化項以改善目標對象的學習,例如,通過抑制背景學習或通過限制相關濾波器的變化率。但是,預定義的參數在調整它們時會花費很多精力,並且它們仍然無法適應設計人員沒有想到的新情況。在這項工作中,提出了一種新穎的方法來自動在線自適應地學習時空正則項。引入空間局部響應圖變化作為空間正則化,以使DCF專注於對象的可信賴部分的學習,而全局響應圖變化確定濾波器的更新率。與基於CPU和GPU的最新跟蹤器相比,在四個UAV基准上進行的廣泛實驗證明了我們方法的優越性,在單個CPU上每秒可運行約60幀。我們的跟蹤器還被建議用於無人機定位。在室內實際場景中進行的大量測試證明了我們的定位方法的有效性和多功能性。

 

 

 

 5. LTMU:使用Meta-Updater進行高性能的長時跟蹤

作者團隊:大連理工大學(盧湖川組)&鵬城實驗室等

論文鏈接:https://arxiv.org/abs/2004.00305
代碼鏈接:https://github.com/Daikenan/LTMU
注:表現SOTA!性能優於SiamRPN++、SPLT和MBMD等網絡中文解讀:CVPR
2020(Oral) | LTMU:給跟蹤器學習一個長時更新控制器


長時(Long-term)視覺跟蹤引起了越來越多的關注,因為它比短時跟蹤更接近實際應用。大多數排名靠前的長時跟蹤器采用離線訓練的Siamese 體系結構,因此,他們無法從在線更新的短時跟蹤器的巨大進步中受益。但是,由於長時的不確定性和嘈雜的觀察,直接引入基於在線更新的跟蹤器來解決長時問題是非常冒險的。在這項工作中,我們提出了一種新穎的離線訓練型Meta-Updater,以解決一個重要但尚未解決的問題:跟蹤器是否准備好在當前框架中進行更新?提出的Meta-Updater可以按順序有效地集成幾何,判別和外觀提示,然后使用設計的級聯LSTM模塊挖掘順序信息。我們的Meta-Updater學習二進制輸出以指導跟蹤器的更新,並且可以輕松地嵌入到不同的跟蹤器中。這項工作還介紹了一個長時跟蹤框架,該框架由在線本地跟蹤器,在線驗證器,基於SiamRPN的重新檢測器和我們的元更新器組成。在VOT2018LT,VOT2019LT,OxUvALT,TLP和LaSOT基准測試中的大量實驗結果表明,我們的跟蹤器的性能明顯優於其他競爭算法。

 

 

 

 

 

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM