2、tensor数据的运算、numpy与Tensor互转、Tensor转cuda


原位操作(in-place),带“_”尾巴的都是原位操作,如x.add_(y) ,x被改变。

1、加法

import torch as t
x=t.Tensor([[10,11],[20,21]]) #Tensor得到的是浮点型
#x=t.tensor([[10,11],[20,21]],dtype=float) #必须指定为浮点型,否则与元素同类型
y=t.rand_like(x) #若x不是浮点型,报错
y
#加法
x+y #方式一
t.add(x,y) #方式二
x.add(y) #方式三
z=t.empty(2,2) t.add(x,y,out=z) #方式四,先分配z的空间再赋值 z

numpy与Tensor互转,共享内存,其一改变,都变。

import torch as t
a=t.ones(2) #默认浮点型
b=a.numpy() #Tensor→numpy
b
a.add_(1) #a、b的元素都变为2.
b
import numpy as nu
a=nu.ones(2) #默认浮点型
b=t.from_numpy(a) #numpy→Tensor
b

Tensor转cuda(GPU运算)

import torch as t
x=t.Tensor([[10,11],[20,21]]) #Tensor得到的是浮点型
y=t.Tensor([[10,11],[20,21]]) #Tensor得到的是浮点型
if t.cuda.is_available(): #gpu上运算,如果不支持,代码块不执行
    x=x.cuda() #转cuda
    y=y.cuda()
    z=x+y
    print(z) #还在GPU里
    print(z.to("cpu")) #转到cpu展示

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM