halcon深度學習總結(二)


 

一、模型的特點及選用

A、 當前使用的halcon版本為19.12,可用於分類的模型有以下幾種

①    pretrained_dl_classifier_alexnet.hdl

②    pretrained_dl_classifier_compact.hdl

③    pretrained_dl_classifier_enhanced.hdl

④    pretrained_dl_classifier_resnet50.hdl

B、 以上總共有四種模型,每一種模型對應不同的預訓練網絡。每一種模型都有各自的特點。當前根據我們在M7000上對比測試的效果來看,我們選用第四種預訓練模型的基礎上訓練出來的總體檢測效果最佳。

C、 第二種模型為迷你型分類網絡,該網絡的特點是節省內存及運行效率高。網絡沒有全連接層。圖像尺寸不能低於15*15。

D、第三種模型為增強型網絡模型,含有更多的隱含層。相比於迷你型網絡需要更多的內存及其它資源,含有全連接層。圖片大小不能小於47*47。

E、 第四種模型,其網絡比其它類型的預訓練網絡更加復雜,對於復雜類型的分類任務,其魯棒性和穩定性要更好。圖像不能小於32*32。

 

二、超參數及其設置

A、 超參數的分類:網絡參數、優化參數、正則化參數

①    網絡參數:可指網絡層與層之間的交互方式(相加、相乘或者串接等)、卷積核數量和卷積核尺寸、網絡層數(也稱深度)和激活函數等。

②    優化參數:一般指學習率(learning rate)、批樣本數量(batch size)、不同優化器的參數以及部分損失函數的可調參數。

③    正則化參數:權重衰減系數,丟棄法比率(dropout)。

B、 超參數的重要性順序:

①    學習率及損失函數可調參數。

②    批樣本數量及動量參數的設置。

③    Adam優化器的超參數、權重衰減系數、丟棄法比率(dropout)和網絡參數。

C、 超參數詳細分類

 

D、當前經測試得出的較優參數配置:

①    學習率為0.001

②    批處理大小最大只能設置到18,當前顯卡RTX2080。

③    動量參數設置為0.9

④    NumEpochs 為100~128

 

三、圖像大小與縮放

圖像的縮放對最終模型的訓練結果有較大影響,因圖片最大的圖片不超過400*400,因此圖像縮放后有很多細節部分被丟棄,導致訓練出來的模型整體穩定性較差,誤報及漏報均較高。因此需要注意圖像的縮放問題。

 

四、圖像訓練使用的NG圖片數量與OK圖片數量。

①    圖片的挑選必須按照一定的規則進行,OK圖片與NG圖片不能混雜,否則訓練出來的模型會預測混亂。

②    OK圖片與NG圖片的數量根據當前的情況分析大約在5:1的情況下表現較好。(對於這個比例問題后續還需要做更多的驗證)


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM