torch.nn.ReLU(inplace=True)的具体含义:


首先根据源文档中的ReLU(x)=max(0,x),得出结论。大于0的数值不变,小于0的数据变成0

补充:这里需要注意的是 ReLU并没有限制数据的大小

这是对应的文档链接:https://pytorch.org/docs/1.2.0/nn.html#torch.nn.ReLU  Ps:需要自取。

参数:inplaceTrue,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出。

好处:省去了反复申请与释放内存的时间,直接代替原来的值。

测试代码:

import torch
from torch import nn
m = nn.ReLU()
# 随机生成5个数 有正有负。
input = torch.randn(5)
# 打印 随机生成的数
print(input)
output = m(input)
# 经过nn.ReLU()作用之后的数
print(output)
# 结果
# tensor([-0.7706, -0.1823,  0.2687,  0.2796, -1.7201])
# tensor([0.0000,   0.0000,  0.2687,  0.2796,  0.0000])

任务完成,下班。

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM