第3次作业:卷积神经网络


第3次作业:卷积神经网络

本周学习情况如下:

1.视频学习心得

姓名 视频学习心得
庄薪霖 1.卷积神经网络广泛应用于计算机视觉领域: 如检测、分割、人脸识别、人脸表情识别、图像生成。卷积神经网络VS传统神经网络: 传统神经网络并非不可取,而是由于输入参数过多,容易发生过拟合;而卷积神经网络的思想是局部关联、参数共享。2.卷积层: 主要概念有卷积计算、零填充、卷积核(不同的卷积核是关注不同的部位) 3.池化层: 常用最大值池化、平均值池化,用于减少参数数量和计算类,抑制过拟合。总之,典型的卷积神经网络由卷积层、池化层、全连接层交叉堆叠而成。4.典型的卷积神经网络: AlexNet ZFNet VGG GoogleNet 总之,各类改进方法包括改进模型结构、加深深度等。
周博谦 https://www.cnblogs.com/flower-sea/articles/15415681.html
帅翔宇 卷积神经网络在计算机视觉领域发挥了巨大的作用,在自动驾驶、人脸识别方面都有很多的应用。卷积感觉像是把识别的对象特征进行分层,对每一层进行卷积核的乘积的计算,提取出每一层的特征组合起来,通过池化将层与层之间连接起来,提高模型的泛化能力.
麻宏洋 卷积神经网络是深度学习的代表算法之一,具有表征学习能力,可以按照其阶层结构对输入信息进行平移不变分类。卷积神经网络通过仿造生物的视知觉机制构建,可以进行监督学习与非监督学习。卷积神经网络的结构分为输入层、隐含层、输出层。其中最复杂的为隐含层,包括卷积层、池化层和全连接层3类常见构筑,到目前一些先进的算法中还包括Inception模块、残差块等复杂构筑。卷积层的功能是对输入数据进行特征提取,其内部包含多个卷积核,组成卷积核的每个元素都应对应一个权重系数和一个偏差量,类似于一个前馈神经网络的神经元。卷积层中还包含激励函数用来协助表达复杂特征。和上周所学习的深度学习算法类似,卷积神经网络通常使用线性整流函数,其他类似ReLU的变体包括有斜率的ReLU、参数化的ReLU、随机化的ReLU、指数线性单元等。
花如壮 视频主要介绍了卷积神经网络的基本结构:卷积层、池化层、全连接层,对比了传统神经网络和卷积神经网络,简述了卷积神经网络的经典结构 :AlexNet, ZFNet, VGG, GoogleNet, ResNet等内容。通过实际应用引出了对于深度学习的介绍,让我对于深度学习的传统神经网络和卷积神经网络有了较为深刻的区分和认识,对于后续的卷积层、池化层、全连接层以及经典的卷积神经网络结构有了较好的认知
赵文杰 卷积神经网络基本机构有卷积、池化和全连接层,其中卷积是对两个实变函数的一种数学操作,有一维卷积、二维卷积等。

2.有关视频内容的疑问

姓名 疑问
庄薪霖 多个卷积核能够增加特征多样性具体是什么原理?如何选定线性激活函数和非线性激活函数?
周博谦 GoogleNet的几次Inception更新优化之处不是很明确;以及是如何通过增加小的卷积核减少参数的?
帅翔宇 学习完视频之后,对于卷积神经网络的分层部分,对于每一层是怎么分出来的,如何进行拟合还是不太理解。
麻宏洋 1.关于池化层的Lp池化还不是很明白,关于Lp池化模型不明白。2.随机池化是Lp池化的延伸,不是很明白。
花如壮 损失函数对于神经网络的影响?
赵文杰 如何选取合适的函数来过拟合;AlexNet的分层解析。

3.练习情况

姓名 练习URL
庄薪霖 https://www.cnblogs.com/mihara/p/15415611.html
周博谦 https://www.cnblogs.com/flower-sea/articles/15413127.html
帅翔宇 https://blog.csdn.net/merits_/article/details/120795506
麻宏洋 https://www.cnblogs.com/1q2w2/p/15414196.html
花如壮 https://www.cnblogs.com/coolab/articles/15415325.html
赵文杰 https://blog.csdn.net/Z0403/article/details/120797812


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM