原文:《动手学深度学习》(pytorch版本)中`d2lzh_pytorch`包问题

在学习pytorch版本的深度学习中,大多会因为这个包困扰,如果直接安装d lzh包,在后期使用中会导致某些函数无法实现。因此仍旧需要安装d lzh pytorch d lzh pytorch 下载传送门,下载解压后,直接放入包文件里即可。 我的文件路径,可参考一下: 我下载之后运行下面的导入包的命令时,还提示ModuleNotFoundError: No module named tqdm ,t ...

2020-02-16 22:12 0 8716 推荐指数:

查看详情

动手深度学习PyTorch版-task01

task0101.线性回归 优化函数 - 随机梯度下降 当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analytical solution)。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能 ...

Sat Feb 15 04:55:00 CST 2020 0 204
动手深度学习9-多层感知机pytorch

多层感知机 隐藏层 激活函数 小结 多层感知机 之前已经介绍过了线性回归和softmax回归在内的单层神经网络,然后深度学习主要学习多层模型,后续将以多层感知机(multilayer percetron,MLP),介绍多层神经网络的概念。 隐藏层 多层感知机 ...

Thu Nov 07 06:40:00 CST 2019 0 750
动手深度学习8-softmax分类pytorch简洁实现

定义和初始化模型 softamx和交叉熵损失函数 定义优化算法 训练模型 定义和初始化模型 softmax的输出层是一个全连接层,所以我们使用一个线性模块就可 ...

Wed Nov 06 05:40:00 CST 2019 0 1114
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM