遷移學習


1 什么是遷移學習

       遷移學習TL(Transfer Learning)是把已學訓練好的模型參數遷移到新的模型來幫助新模型訓練。考慮到大部分數據或任務是存在相關性的,所以通過遷移學習,可以將已經學到的模型參數通過某種方式來分享給新模型從而加快並優化模型的學習效率。

2 遷移什么

在預訓練模型中存在各種特征數據與權重信息、有些是與分類識別的對象本身關聯比較緊密的特征數據與權重信息,有些是一些比較共性的特征數據與信息,是可以被不同的任務或者對象之間共享的,遷移學習就是要遷移那些共性特征數據與信息,從而避免再次學習這些知識,實現快速學習。簡單點說遷移學習主要是實現卷積層共性特征遷移。

3 怎么遷移

 

 

4 什么時候使用遷移

當我們有相似的任務需要完成的時候,我們可以使用預訓練的相關模型,在此基礎上進行遷移學習即可,

在實際使用中我們把預訓練的網絡稱為base-network,把要遷移的前n層復制到一個到目標網絡(target network),然后隨機初始化目標網絡的余下各層、開始訓練進行反向傳播、反向傳播時候有兩種方法可以使用:

  • 把前面n層凍結forzen、只對后面的層進行訓練,這種方法適合少的樣本數據,而且隨着層凍結n數值增大、網絡性能會下降,這種是單純的遷移學習。
  • 不凍結前n層、全程參與訓練不斷調整它們的參數,實現更好的網絡性能這種方法稱為遷移學習+fine-tuning。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM