R-CNN論文翻譯——用於精確物體定位和語義分割的豐富特征層次結構


原文地址

我對深度學習應用於物體檢測的開山之作R-CNN的論文進行了主要部分的翻譯工作,R-CNN通過引入CNN讓物體檢測的性能水平上升了一個檔次,但該文的想法比較自然原始,估計作者在寫作的過程中已經意識到這個問題,所以文中也對未來的改進提出了些許的想法,未來我將繼續翻譯SPPNet、fast-RCNN、faster-RCNN、mask-RCNN等一系列物體定位和語義分割領域的重要論文,主要作者都是Ross Girshick和Kaiming He。

用於精確物體定位和語義分割的豐富特征層次結構

Rich feature hierarchies for accurate object detection and semantic segmentation

Ross Girshick      Jeff Donahue      Trevor Darrell     Jitendra Malik
UC Berkeley

 

摘要

過去幾年,在權威的PASCAL VOC數據集上,物體定位的性能已經達到一個穩定水平。表現最好的方法都是融合了多個低層次圖像特征和高層次的上下文環境的復雜系統。本文提出一種簡單的可擴展的檢測算法,可以將VOC2012上期望平均精度的最好結果明顯提升30%以上——達到了53.3%。我們的方法結合了兩個關鍵因素:(1) 將大型卷積神經網絡(CNNs)應用於自底向上區域推薦以定位和分割物體;(2)當標簽訓練數據不足時,先針對輔助任務進行有監督預訓練,再進行特定任務的調優,就可以產生明顯的性能提升。由於我們結合了區域推薦和CNNs,該方法被稱為R-CNN:Regions with CNN features。我們對比了R-CNN和OverFeat,Overfeat是最近被提出的一個機遇類CNN架構的滑動窗口檢測器,發現R-CNN在ILSVRC2013檢測數據集上面的表現明顯優於OverFeat。整個系統的源碼在:https://people.eecs.berkeley.edu/~rbg/rcnn(譯者注:已失效,新地址:https://github.com/rbgirshick/rcnn)。
 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM