第3次作業:卷積神經網絡


第3次作業:卷積神經網絡

本周學習情況如下:

1.視頻學習心得

姓名 視頻學習心得
庄薪霖 1.卷積神經網絡廣泛應用於計算機視覺領域: 如檢測、分割、人臉識別、人臉表情識別、圖像生成。卷積神經網絡VS傳統神經網絡: 傳統神經網絡並非不可取,而是由於輸入參數過多,容易發生過擬合;而卷積神經網絡的思想是局部關聯、參數共享。2.卷積層: 主要概念有卷積計算、零填充、卷積核(不同的卷積核是關注不同的部位) 3.池化層: 常用最大值池化、平均值池化,用於減少參數數量和計算類,抑制過擬合。總之,典型的卷積神經網絡由卷積層、池化層、全連接層交叉堆疊而成。4.典型的卷積神經網絡: AlexNet ZFNet VGG GoogleNet 總之,各類改進方法包括改進模型結構、加深深度等。
周博謙 https://www.cnblogs.com/flower-sea/articles/15415681.html
帥翔宇 卷積神經網絡在計算機視覺領域發揮了巨大的作用,在自動駕駛、人臉識別方面都有很多的應用。卷積感覺像是把識別的對象特征進行分層,對每一層進行卷積核的乘積的計算,提取出每一層的特征組合起來,通過池化將層與層之間連接起來,提高模型的泛化能力.
麻宏洋 卷積神經網絡是深度學習的代表算法之一,具有表征學習能力,可以按照其階層結構對輸入信息進行平移不變分類。卷積神經網絡通過仿造生物的視知覺機制構建,可以進行監督學習與非監督學習。卷積神經網絡的結構分為輸入層、隱含層、輸出層。其中最復雜的為隱含層,包括卷積層、池化層和全連接層3類常見構築,到目前一些先進的算法中還包括Inception模塊、殘差塊等復雜構築。卷積層的功能是對輸入數據進行特征提取,其內部包含多個卷積核,組成卷積核的每個元素都應對應一個權重系數和一個偏差量,類似於一個前饋神經網絡的神經元。卷積層中還包含激勵函數用來協助表達復雜特征。和上周所學習的深度學習算法類似,卷積神經網絡通常使用線性整流函數,其他類似ReLU的變體包括有斜率的ReLU、參數化的ReLU、隨機化的ReLU、指數線性單元等。
花如壯 視頻主要介紹了卷積神經網絡的基本結構:卷積層、池化層、全連接層,對比了傳統神經網絡和卷積神經網絡,簡述了卷積神經網絡的經典結構 :AlexNet, ZFNet, VGG, GoogleNet, ResNet等內容。通過實際應用引出了對於深度學習的介紹,讓我對於深度學習的傳統神經網絡和卷積神經網絡有了較為深刻的區分和認識,對於后續的卷積層、池化層、全連接層以及經典的卷積神經網絡結構有了較好的認知
趙文傑 卷積神經網絡基本機構有卷積、池化和全連接層,其中卷積是對兩個實變函數的一種數學操作,有一維卷積、二維卷積等。

2.有關視頻內容的疑問

姓名 疑問
庄薪霖 多個卷積核能夠增加特征多樣性具體是什么原理?如何選定線性激活函數和非線性激活函數?
周博謙 GoogleNet的幾次Inception更新優化之處不是很明確;以及是如何通過增加小的卷積核減少參數的?
帥翔宇 學習完視頻之后,對於卷積神經網絡的分層部分,對於每一層是怎么分出來的,如何進行擬合還是不太理解。
麻宏洋 1.關於池化層的Lp池化還不是很明白,關於Lp池化模型不明白。2.隨機池化是Lp池化的延伸,不是很明白。
花如壯 損失函數對於神經網絡的影響?
趙文傑 如何選取合適的函數來過擬合;AlexNet的分層解析。

3.練習情況

姓名 練習URL
庄薪霖 https://www.cnblogs.com/mihara/p/15415611.html
周博謙 https://www.cnblogs.com/flower-sea/articles/15413127.html
帥翔宇 https://blog.csdn.net/merits_/article/details/120795506
麻宏洋 https://www.cnblogs.com/1q2w2/p/15414196.html
花如壯 https://www.cnblogs.com/coolab/articles/15415325.html
趙文傑 https://blog.csdn.net/Z0403/article/details/120797812


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM