这篇主要记录学习途中遇到的问题及解决方法。相关学习笔记见https://www.cnblogs.com/guohaoblog/p/12306118.html 1、线性回归 问题来源:https://pytorch.org/docs/stable/notes ...
task .线性回归 优化函数 随机梯度下降 当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解 analytical solution 。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。这类解叫作数值解 numerical solution 。 在求数值解 ...
2020-02-14 20:55 0 204 推荐指数:
这篇主要记录学习途中遇到的问题及解决方法。相关学习笔记见https://www.cnblogs.com/guohaoblog/p/12306118.html 1、线性回归 问题来源:https://pytorch.org/docs/stable/notes ...
一、从零开始实现 1.1 首先引入Fashion-MNIST数据集 1.2 初始化模型参数 原始图像中每个样本都是28*28的,所以要展平每个图像成长度为784的向量。 权重78 ...
一、 导入 二、初始化参数 三、Softmax的实现 四、优化算法 五、训练 ...
在学习pytorch版本的深度学习中,大多会因为这个包困扰,如果直接安装d2lzh包,在后期使用中会导致某些函数无法实现。因此仍旧需要安装d2lzh_pytorch'd2lzh_pytorch'下载传送门,下载解压后,直接放入包文件里即可。 我的文件路径,可参考一下 ...
Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 task03笔记见:https://www.cnblogs.com/guohaoblog/p/12324894.html 过拟合、欠拟合及其解决方案 1、关于验证数据集的描述错误的是: A、测试数据 ...
Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 学习笔记见:https://www.cnblogs.com/guohaoblog/p/12324983.html 机器翻译及其技术 1、数据预处理中分词(Tokenization)的工作 ...
Task05:卷积神经网络基础;leNet;卷积神经网络进阶 学习笔记见:https://www.cnblogs.com/guohaoblog/p/12325038.html 卷积神经网络基础 1、假如你用全连接层处理一张256×256的彩色(RGB)图像,输出包含1000个神经元 ...
多层感知机 隐藏层 激活函数 小结 多层感知机 之前已经介绍过了线性回归和softmax回归在内的单层神经网络,然后深度学习主要学习多层模型,后续将以多层感知机(multilayer percetron,MLP),介绍多层神经网络的概念。 隐藏层 多层感知机 ...