原文:深度學習之L1、L2、smooth L1三類損失函數

原文鏈接 一 常見的MSE MAE損失函數 . 均方誤差 平方損失均方誤差 MSE 是回歸損失函數中最常用的誤差,它是預測值與目標值之間差值的平方和,其公式如下所示: 下圖是均方根誤差值的曲線分布,其中最小值為預測值為目標值的位置。 優點:各點都連續光滑,方便求導,具有較為穩定的解缺點:不是特別的穩健,為什么 因為當函數的輸入值距離中心值較遠的時候,使用梯度下降法求解的時候梯度很大,可能導致梯度爆 ...

2021-03-11 12:22 0 292 推薦指數:

查看詳情

smooth L1損失函數

當預測值與目標值相差很大時,L2 Loss的梯度為(x-t),容易產生梯度爆炸,L1 Loss的梯度為常數,通過使用Smooth L1 Loss,在預測值與目標值相差較大時,由L2 Loss轉為L1 Loss可以防止梯度爆炸。 L2 loss的導數(梯度)中包含預測值與目標值的差值 ...

Sun Aug 25 22:50:00 CST 2019 0 1468
回歸損失函數1:L1 loss, L2 loss以及Smooth L1 Loss的對比

總結對比下\(L_1\) 損失函數,\(L_2\) 損失函數以及\(\text{Smooth} L_1\) 損失函數的優缺點。 均方誤差MSE (\(L_2\) Loss) 均方誤差(Mean Square Error,MSE)是模型預測值\(f(x)\) 與真實樣本值\(y\) 之間差值平方 ...

Wed Dec 11 19:46:00 CST 2019 0 7699
交叉熵、Focal loss、L1L2smooth L1損失函數、IOU Loss、GIOU、DIOU和CIOU

深度學習損失函數小結 在深度學習中,損失函數扮演着很重要的角色。通過最小化損失函數,使得模型達到收斂狀態,減少模型預測值的誤差。因此,不同的損失函數,對模型的影響是重大的。下面總結一下常用的損失函數: 圖像分類:交叉熵 目標檢測:Focal loss、L1/L2損失 ...

Mon Feb 24 05:37:00 CST 2020 0 749
L1L2損失函數、Huber損失函數

L1范數損失函數,也被稱為最小絕對值偏差(LAD),最小絕對值誤差(LAE) L2范數損失函數,也被稱為最小平方誤差(LSE) L2損失函數 L1損失函數 不是非常的魯棒(robust) 魯棒 ...

Sat Jun 29 03:25:00 CST 2019 0 2512
深度學習——L0、L1L2范數

深度學習中,監督學習問題其實就是在規則化參數同時最小化誤差。最小化誤差目的是讓模型擬合訓練數據,而規則化參數的目的是防止模型過分擬合訓練數據。 參數太多,會導致模型復雜度上升,容易過擬合,也就是訓練誤差小,測試誤差大。因此,我們需要保證模型足夠簡單,並在此基礎上訓練誤差小,這樣訓練得到的參數 ...

Mon Nov 19 19:36:00 CST 2018 0 1434
L1L2損失函數和正則化

作為損失函數 L1范數損失函數   L1范數損失函數,也被稱之為平均絕對值誤差(MAE)。總的來說,它把目標值$Y_i$與估計值$f(x_i)$的絕對差值的總和最小化。 $$S=\frac{1}{N}\sum_{i=1}^n|Y_i-f(x_i)|$$ L2范數損失函數 ...

Wed Jan 29 23:16:00 CST 2020 0 744
損失函數———有關L1L2正則項的理解

一、損失函: 模型的結構風險函數包括了 經驗風險項 和 正則項,如下所示: 二、損失函數中的正則項 1.正則化的概念: 機器學習中都會看到損失函數之后會添加一個額外項,常用的額外項一般有2種,L1正則化和L2正則化。L1L2可以看做是損失函數的懲罰項,所謂 ...

Fri Sep 06 00:09:00 CST 2019 0 892
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM