手把手教你用深度學習做物體檢測(七):YOLOv3介紹


YOLOv3

論文:《 YOLOv3: An Incremental Improvement 》
地址: https://arxiv.org/pdf/1804.02767.pdfyolov3

相比之前版本的改進

  • 網絡的特征提取部分
    由 Darknet-19改成了 Darknet-53,更深了,速度確有下降,但是相比ResNet來說仍然高很多。
    b799f7151e3a56e0c6678fdae50a3c00.png
    9d554116caf26a6a91d11ab2569aec06.png

  • 跨尺度預測
    yolov3網絡在3個不同尺寸的特征圖下,每個尺寸的特征圖預測出3個boxes,anchor box還是采用聚類的方法得到9個anchor box,然后3個不同的尺寸特征圖各得到3個anchor box。 這樣就得到了N ×N ×[3∗(4+1+80)] ,N為格子大小(13*13、26*26、52*52),3為每個格子得到的邊界框數量, 4是邊界框參數數量(x,y,w,h),1是置信度(包含類別和邊界框位置),80是類別數量(這里coco數據集是80類)。
    dc15c8d08efd69014003e733f7459377.png
    yolo3會利用第82、94、106層的特征圖來進行不同尺寸的目標檢測。
    82層的圖像小(分辨率低),感受野大,可以到檢測圖像中較大的目標;
    94層的圖像中等,感受野中等,可以檢測到圖像中不大也不小的目標;
    106層的圖像大(分辨率高),但感受野相對最小,可以檢測到圖像中較小的目標。
    所以如果訓練過程中,發現某層的輸出值是非數,這只是說明在這層沒有檢測到目標對象,只要三層中至少有一層能輸出正常的數字,就是正常的。
    從圖上也可以看到,為了能同時學到淺層和深層的特征,上面的82、94層特征圖自身經過上采樣后還會和早期層的特征圖做一些拼接(concat)操作。用論文原話說就是:這樣的方法讓我們從上采樣特征中得到更多有意義的語義信息;從更早期的特征中得到紋理信息(finer-grained information)。

  • 類別預測
    因為每個邊界框都采用多標簽分類器來預測包含的類別,所以作者 沒有使用softmax,而是為每個類別的預測使用了相互獨立的邏輯回歸分類器。該方法使得yolov3可以訓練類像Open Images數據集那么復雜的數據,該數據集有許多包含屬性的標簽,比如(比如對圖像中的一個人進行標注,可以有“女人”和“人”等多個標簽)。

yolov3性能對比圖表:

02eb463917889391964e568f7b1d0deb.png

總結一下:

  • YOLOv1提出了一個端到端的目標檢測模型,輸入圖片,僅跑一個網絡,即可識別出圖片中的目標類型和目標的位置。
  • YOLOv1相比其他模型,更快,已經可以達到實時檢測的水品;泛化能力更強,即使在自然圖片上訓練,然后在藝術圖片上測試也能有很好的表現。
  • YOLOv1的缺點也很明顯:在目標位置的預測上還不夠准確;很難檢測小目標(比如鳥群);很難泛化到新的或不常見的縱橫比圖片上;
  • YOLOv2在學習速度、准確度、對小目標的檢測、對不同尺度圖片的檢測上都有提升;
  • YOLOv3采用了更深的網絡來提取特征,准確度提升了2%以上,速度下降了,但是仍然比其他模型要高很多;
  • YOLOv3采用了跨尺度預測和FPN( feature pyramid networks)的結構,綜合考慮了淺層的特征和深層的特征,使得位置信息和語義信息都能更准確的預測;
  • YOLOv3可以訓練類像Open Images那樣復雜的數據集,因為作者 沒有使用softmax,而是為每個類別的預測使用了相互獨立的邏輯回歸分類器。

ok,yolo的原理和各版本差異就介紹到這里啦,還想了解更多細節的朋友建議親自讀一讀原論文,然后結合之前筆者寫的幾篇目標檢測系列的文章親自上手操作一下,會有更深的理解。

參考文獻:
https://arxiv.org/pdf/1506.02640.pdf
https://arxiv.org/pdf/1612.08242v1.pdf
https://arxiv.org/pdf/1804.02767.pdfyolov3
https://towardsdatascience.com/yolo-v3-object-detection-53fb7d3bfe6b


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM