1、灰度圖像,邊緣檢測, 使用核函數的缺點,圖像的向量會不斷的縮小,另外一個就是邊緣的向量相比於中間的向量被覆蓋的次數會少很多。解決這個的方法就是padding在圖像的周圍再添加一圈向量。
2、核函數通常是奇數維向量
3、卷積層,
池化層:選出某一區域的最大值,另外還有 平均池化,就是求一個小區域的均值
,全連接層:類似於普通的神經網絡,將最后的比如120*1的列向量全連接映射到80*1的列向量上
4、通常是一個卷積層后面跟一個池化層,然后有多個卷積層和池化層,也可以多個卷積層后跟一個池化層。最后加上幾個全連接層,最后再加上softmax函數等。
5、卷積神經網絡的作用,簡而言之就是在保持圖片特征的前提下,縮小圖片所含的元素,這個可以從向量逐漸變小看出來。這樣也能減少神經網絡所需要的參數,以便整個網絡的快速形成。
6、le NET-5:針對灰度圖訓練出來的:
7、AlexNet:
8、vgg-16:
9、ResNets:殘差網絡
在第二層進行激活函數之前加上第一層的輸入,一起輸入到激活函數里。來運算。普通的網絡隨着層數的增加,訓練錯誤也會增加,因此誤差剛開始隨着層數的增加,逐漸降低,但是當達到一定層數之后,誤差就會逐漸升高,但是殘差網絡有助於改善這一情況。並且會減弱梯度爆炸以及梯度消失的情況。
10、1*1的卷積核可以幫助壓縮圖像的信道,即厚度
11、inception網絡:
訓練參數來決定使用哪一個卷積層,即給每個卷積層或者池化層加上權重,然后訓練網絡,讓網絡來決定使用哪一個卷積層,1*1可以減小計算規模,即在一般的卷積話層之間先加一個1*1的卷積層,過度一下(有時也稱為瓶頸層,因為是利用1*1先縮小厚度,然后再使用卷積層增加到目標厚度,這樣一層化為兩層,原來的乘法運算被划為先分乘,再加在一起)。
12、inception網絡:
13、遷移學習,當數據量非常小時,將前面的層凍結起來,只訓練最后一層,或者凍結前面部分的層,訓練后面一部分的層的參數,如果數據量大時,也可以使用別人訓練好的參數作為初始化的參數,然后再來訓練所有的層
14、目標檢測:目標檢測中y被定義為一個含有坐標的標簽:
15、yolo算法,
16、交並比:lou
17、anchor box
18、R-CNN:區域卷積神經網絡,