pytorch normal_(), fill_()


比如有個張量a,那么a.normal_()就表示用標准正態分布填充a,是in_place操作,如下圖所示:

比如有個張量b,那么b.fill_(0)就表示用0填充b,是in_place操作,如下圖所示:

 

這兩個函數常常用在神經網絡模型參數的初始化中,例如

import torch.nn as nn
net = nn.Linear(16, 2)
for m in net.modules():
    if isinstance(m, nn.Linear):
        m.weight.data.normal_(mean=0, std=0.01)
        m.bias.data.fill_(0.0)

  


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM