Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 学习笔记见:https://www.cnblogs.com/guohaoblog/p/12324983.html 机器翻译及其技术 1、数据预处理中分词(Tokenization)的工作 ...
Task :过拟合 欠拟合及其解决方案 梯度消失 梯度爆炸 循环神经网络进阶 task 笔记见:https: www.cnblogs.com guohaoblog p .html 过拟合 欠拟合及其解决方案 关于验证数据集的描述错误的是: A 测试数据集可以用来调整模型参数 B 验证数据集可以用来调整模型参数 C 在数据不够多的时候,k折交叉验证是一种常用的验证方法 D k折交叉验证将数据分为k份 ...
2020-02-18 13:28 0 789 推荐指数:
Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 学习笔记见:https://www.cnblogs.com/guohaoblog/p/12324983.html 机器翻译及其技术 1、数据预处理中分词(Tokenization)的工作 ...
Task05:卷积神经网络基础;leNet;卷积神经网络进阶 学习笔记见:https://www.cnblogs.com/guohaoblog/p/12325038.html 卷积神经网络基础 1、假如你用全连接层处理一张256×256的彩色(RGB)图像,输出包含1000个神经元 ...
task0101.线性回归 优化函数 - 随机梯度下降 当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analytical solution)。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能 ...
跟李沐学Ai 03 安装【动手学深度学习v2】 可以考虑直接使用Google的colab,https://colab.research.google.com/drive/18-HoW6P3L6N0rWBWLc-b6xB83cD3cZZn 命令1 sudo apt update[sudo ...
这篇主要记录学习途中遇到的问题及解决方法。相关学习笔记见https://www.cnblogs.com/guohaoblog/p/12306118.html 1、线性回归 问题来源:https://pytorch.org/docs/stable/notes ...
权重衰减 高维线性回归实验 从零开始实现 初始化模型参数 定义L2范数惩罚项 定义训练和测试 使用权重衰减 pytorch简洁实 ...
1、隐藏层 多层感知机在单层神经网络中引入了一到多个隐藏层,隐藏层位于输入层和输出层之间 输入层特征数为4个,输出层标签类别为3,隐藏单元5个,输入层不涉及计算,多层感知机层数为2 隐藏层中 ...
目录 使用GPU 购买GPU 整机配置 QA 使用GPU 其实如果没有钱买GPU的话,使用Google Colab也是一个不错的选择,大概是10 dol ...