轉自:https://blog.csdn.net/Alawaka2018/article/details/80388808
傳統的圖像識別問題往往通過分治法將其分分解為預處理、特征提取和選擇、分類器設計等若干步驟。分治法的動機是將圖像識別的母問題分解為簡單、可控且清晰的若干小的子問題。不過分步解決子問題時,盡管可以在子問題上得到最優解,但子問題上的最優解並不意味着就能得到全局問題的最后解。
深度學習提供了一種“端到端”的學習范式,整個學習的流程並不進行人為的子問題划分,而是完全交給深度學習模型直接學習從原始數據到期望輸出的映射。
如圖所示,對深度模型而言,其輸入數據是未經任何人為加工的原始樣本形式,后續則是堆疊在輸入層上的眾多操作層。這些操作層整體可以看作一個復雜的函數Fcnn,最終的損失函數由數據損失(data loss)和模型參數的正則化損失(regularization loss)共同組成,模型深度的訓練則是在最終損失驅動下對模型進行參數更新並將誤差反向傳播至網絡各層。模型的訓練可以簡單抽象為從原始數據向最終目標的直接擬合,而中間的這些部件起到了將原始數據映射為特征隨后在映射為樣本標記的作用。
總結一下:端到端的學習其實就是不做其他額外處理,從原始數據輸入到任務結果輸出,整個訓練和預測過程,都是在模型里完成的。
---------------------
作者:愛上北方的冷冬
來源:CSDN
原文:https://blog.csdn.net/Alawaka2018/article/details/80388808
版權聲明:本文為博主原創文章,轉載請附上博文鏈接!