比如有個張量a,那么a.normal_()就表示用標准正態分布填充a,是in_place操作,如下圖所示:

比如有個張量b,那么b.fill_(0)就表示用0填充b,是in_place操作,如下圖所示:

這兩個函數常常用在神經網絡模型參數的初始化中,例如
import torch.nn as nn
net = nn.Linear(16, 2)
for m in net.modules():
if isinstance(m, nn.Linear):
m.weight.data.normal_(mean=0, std=0.01)
m.bias.data.fill_(0.0)
