吳恩達-卷積神經網絡


1、灰度圖像,邊緣檢測,  使用核函數的缺點,圖像的向量會不斷的縮小,另外一個就是邊緣的向量相比於中間的向量被覆蓋的次數會少很多。解決這個的方法就是padding在圖像的周圍再添加一圈向量。

2、核函數通常是奇數維向量

3、卷積層,

池化層:選出某一區域的最大值,另外還有 平均池化,就是求一個小區域的均值

,全連接層:類似於普通的神經網絡,將最后的比如120*1的列向量全連接映射到80*1的列向量上

4、通常是一個卷積層后面跟一個池化層,然后有多個卷積層和池化層,也可以多個卷積層后跟一個池化層。最后加上幾個全連接層,最后再加上softmax函數等。

5、卷積神經網絡的作用,簡而言之就是在保持圖片特征的前提下,縮小圖片所含的元素,這個可以從向量逐漸變小看出來。這樣也能減少神經網絡所需要的參數,以便整個網絡的快速形成。

6、le NET-5:針對灰度圖訓練出來的:

7、AlexNet:

8、vgg-16:

9、ResNets:殘差網絡

在第二層進行激活函數之前加上第一層的輸入,一起輸入到激活函數里。來運算。普通的網絡隨着層數的增加,訓練錯誤也會增加,因此誤差剛開始隨着層數的增加,逐漸降低,但是當達到一定層數之后,誤差就會逐漸升高,但是殘差網絡有助於改善這一情況。並且會減弱梯度爆炸以及梯度消失的情況。

10、1*1的卷積核可以幫助壓縮圖像的信道,即厚度

11、inception網絡:

訓練參數來決定使用哪一個卷積層,即給每個卷積層或者池化層加上權重,然后訓練網絡,讓網絡來決定使用哪一個卷積層,1*1可以減小計算規模,即在一般的卷積話層之間先加一個1*1的卷積層,過度一下(有時也稱為瓶頸層,因為是利用1*1先縮小厚度,然后再使用卷積層增加到目標厚度,這樣一層化為兩層,原來的乘法運算被划為先分乘,再加在一起)。

12、inception網絡:

 

 

 

 13、遷移學習,當數據量非常小時,將前面的層凍結起來,只訓練最后一層,或者凍結前面部分的層,訓練后面一部分的層的參數,如果數據量大時,也可以使用別人訓練好的參數作為初始化的參數,然后再來訓練所有的層

14、目標檢測:目標檢測中y被定義為一個含有坐標的標簽:

15、yolo算法,

16、交並比:lou

17、anchor box

18、R-CNN:區域卷積神經網絡,

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM