原文:【邱希鹏】神经网络与深度学习课后习题-chap2

. 分析为什么平方损失函数不适用于分类问题. 答: 分类问题中的标签,是没有连续的概念的。每个标签之间的距离也是没有实际意义的,所以预测值 和 标签两个向量之间的平方差这个值不能反应分类这个问题的优化程度。 假设分类问题的类别是 , , 那么对于一个真实类别为 的样本X,模型的分类结果是 或 ,平方损失函数得到的结果都一样。 显然,不适合 . 计算其最优参数 在线性回归中,如果我们给每个样本 l ...

2020-07-11 21:57 0 1660 推荐指数:

查看详情

神经网络深度学习[] 第六章习题解析

6-1 三者都是典型的神经网络模型。 卷积神经网络是对前馈神经网络增加卷积层和池化层。 延时神经网络是对前馈神经网络增加延时器。 循环神经网络是对前馈神经网络增加自反馈的神经元。 延时神经网络和循环神经网络是给网络增加短期记忆能力的两种重要方法。 卷积神经网络和循环神经网络的区别在循环层 ...

Thu Nov 04 02:13:00 CST 2021 0 1750
神经网络深度学习[] 第四章习题解析

4-1[求探讨] 角度1: 角度2: 即:接近 0 的输入在 sigmoid 型函数上的导数较大,梯度下降速度较快 4-2 异或问题: 异或(XOR)问题可以看做是单位正方形的四个角,响应的 ...

Wed Nov 03 16:27:00 CST 2021 0 1019
神经网络深度学习[] 第二章习题解析

2-1 视角1: 一般平方损失函数的公式如下图所示: h表示的是你的预测结果,y表示对应的标签,J就可以理解为用二范数的方式将预测和标签的差距表示出来, 模型学习的过程就是优化权重参数,使得J达到近似最小值。 理论上这个损失函数是很有效果的,但是在实践中却又些问题。 它这个h是激活函数激活后 ...

Sat Oct 30 05:22:00 CST 2021 0 154
神经网络深度学习[] 第八章习题解析

8-1 只考虑一层简单的循环神经网络, 设隐藏层神经元数量为D(即D维),输入层的维数为M。 一个LSTM层(隐藏层)的参数总数为:4D*(D+M)+4D 8-2 8-3 8-4 按照内容寻址,阿西吧。 8-5 8-6 参见:Hopfield 神神经网络动力学分析与应用 ...

Fri Nov 05 01:01:00 CST 2021 0 860
神经网络深度学习[] 第五章习题解析

5-1 5-2 5-3 主要作用: 降维和升维: 每个1×1的卷积核都试图提取基于相同像素位置的特征的融合表达。可以实现特征升维和降维的目的。 比如,一张500 * 500且厚度 ...

Wed Nov 03 22:07:00 CST 2021 0 1792
神经网络深度学习 第5章 卷积神经网络 读书笔记

卷积神经网络(CNN)是一种具有局部连接、权重共享等特性的深层前馈神经网络。 卷积神经网络最早主要是用来处理图像信息。在用全连接前馈网络来处理图像时,会存在以下两个问题: (1)参数太多:随着隐藏层神经元数量的增多,参数的规模也会急剧增加。这会导致整个神经网络的训练效率非常低,也很容易出现 ...

Fri Feb 21 06:05:00 CST 2020 0 810
神经网络深度学习[] 第九章、第十章习题解析

9-1 一般认为,有用信息具有较大的方差,噪声有较小的方差。 主成分分析,选择方差最大的方向投影,并去掉多余的维度(特征),达到降噪的目的。 9-2 9-3 具有多重共线性的数据不适合使用 ...

Sat Nov 06 05:02:00 CST 2021 1 139
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM