理解pytorch中的softmax中的dim参数


 

import torch

import torch.nn.functional as F

x1= torch.Tensor( [ [1,2,3,4],[1,3,4,5],[3,4,5,6]])

y11= F.softmax(x, dim = 0) #对每一列进行softmax

y12 = F.softmax(x,dim =1) #对每一行进行softmax

x2 = torch.Tensor([1,2,3,4])

y2 = F.softmax(x2,dim=0)

这里的dim=0其实就是张量的0轴,dim=1就是张量的1轴。

 \(J_\alpha(x)=\)


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM