IOU->GIOU->CIOU->Focal_loss
總覽

IOU loss

綠色代表Gtbox,黑色代表最終預測的邊界框
但是去計算這三種L2損失時都是一樣的(8.41),但是去計算IOU時很明顯他們的IOU是不一樣的---->說明L2損失不能很好的衡量兩個目標邊界框的重合程度
GIOU loss

上圖中綠色的是真實目標邊界框,紅色的邊界框是最終預測的邊界框
外面的藍色目標邊界框就是用一個小的矩型將這兩個框住-->這個藍色目標邊界框的面積=A^C,
這里的u等於藍色和紅色兩個目標邊界框並集的部分
- Glou缺點:當兩個目標邊界框是並集是GLOU退化層LOU(后面的一項退化成了0)

Diou loss

IOU: 缺點: 收斂特別的慢
GIOU:缺點: 回歸的不夠准確
上圖中的第一行(GLOU)使用GLOU來訓練網絡-->讓預測目標邊界框盡可能地回歸到真實地目標邊界框
(這里的黑色代表anchor(default box),綠色是Groud truth, 藍色是最終預測的邊界框)--->目的是使藍色邊界框與綠色邊界框重合在一起
(1--> 分別表示迭代40步,100步,400步)
第2行的DLOUloss,(20th--40th--120th)---->從而說明DLOU比GLOU收斂更快
觀察上圖的右側--->說明IOU和GLOU不能很好的說明目標邊界框重合的位置關系
- DIOU計算公式:

上圖中的ρ^2 表示b和b^gt 的歐式距離
觀察上圖:b是預測目標邊界框的中心點b^gt 是真實目標的中心點坐標, ρ^2 是中心點的距離的平方,這里的c是這兩個矩形的最小外接框的對角線長度
所以,當兩個目標邊界框重合在一起的時候d^2=0,當這兩個邊界框相聚無窮遠的時候d^2 趨近於c^2
Ciou loss

- 樣例

Focal loss


Focal loss針對one-stage模型,正負樣本差距太大會導致
2.類別不平衡
為什么在two-stage中沒有類別不均衡的問題?
1.在two-stage中的第一階段也存在不平衡問題,但是是通過第二階段的檢測來確定最終的目標的(例如faster-rcnn經過rpn后就大概2000個框了)

- Focal Loss--->針對正負樣本極不平衡的情況

- 引入a對於計算cross entropy的計算(這里的a是一個超參數,來平衡正負樣本的權重)

- 降低簡單樣本的權重,因此能夠聚焦於難分的負樣本,因此作者引入了(1−P_t )^γ

- 這里的a_t 是超參數

第一列代表的是預測概率
第二列代表的是真實地標簽(1對應是正樣本0對應的是負樣本)
第三列的CE是cross entropy loss
第四列代表的是focal loss
第五列的rate代表的是CE和FL的比值
說明Focal loss--->降低易分樣本的權重的功能
使用Focal loss之后更專注於學習難學習的樣本,對於簡單樣本就降低他的學習的權重
Focal的缺點是易受噪音的干擾(所以這里可以在標注是要盡可能地正確)
