Python——tensor概念 Pytorch包 深度神經網絡 (轉)


轉自: https://blog.csdn.net/perfect2011/article/details/120255629

pytorch 和tensorflow 中最重要的概念就是tensor了,tensorflow 這個框架的名字中很直白,就是tensor的流動,

所以學習深度學習的第一課就是得搞懂tensor到底是個什么東西。

 

1.tensor到底是啥
tensor 即“張量”。實際上跟numpy數組、向量、矩陣的格式基本一樣。但是是專門針對GPU來設計的,可以運行

在GPU上來加快計算效率。

在PyTorch中,張量Tensor是最基礎的運算單位,與NumPy中的NDArray類似,張量表示的是一個多維矩陣。不同

的是,PyTorch中的Tensor可以運行在GPU上,而NumPy的NDArray只能運行在CPU上。由於Tensor能在GPU上

運行,因此大大加快了運算速度。

一個可以運行在gpu上的多維數據

x = torch.zeros(5)

 

2.tensor的創建
tensor 概念再怎么高級也只是一個數據結構,一個類,怎么創建這個對象,有下面幾種方式。

直接創建
pytorch 提供的創建tensor的方式

torch.tensor(data, dtype=None, device=None,requires_grad=False)

data - 可以是list, tuple, numpy array, scalar或其他類型

dtype - 可以返回想要的tensor類型

device - 可以指定返回的設備

requires_grad - 可以指定是否進行記錄圖的操作,默認為False

快捷方式創建

t1 = torch.FloatTensor([[1,2],[5,6]])

從numpy中獲得數據
numpy是開發中常用的庫,所以怎么將numpy中的數據給到tensor中,這個pytorch也提供了接口,很方便

torch.from_numpy(ndarry)
注:生成返回的tensor會和ndarry共享數據,任何對tensor的操作都會影響到ndarry,反之亦然

內置的tensor創建方式
torch.empty(size)返回形狀為size的空tensor

torch.zeros(size)全部是0的tensor

torch.zeros_like(input)返回跟input的tensor一個size的全零tensor

torch.ones(size)全部是1的tensor

torch.ones_like(input)返回跟input的tensor一個size的全一tensor

torch.arange(start=0, end, step=1)返回一個從start到end的序列,可以只輸入一個end參數,就跟python的range()

一樣了。實際上PyTorch也有range(),但是這個要被廢掉了,替換成arange了

torch.full(size, fill_value)這個有時候比較方便,把fill_value這個數字變成size形狀的張量

torch.randn(5) 隨機一個生成一個tensor

 

3、tensor轉換
tensor數據的轉換在開發中也是常用的,看下常用的兩種轉換方式

tensor 轉為numpy

a = torch.ones(5)
print(a)
b = a.numpy()
print(b)

tensor 轉為list

data = torch.zeros(3, 3)
data = data.tolist()
print(data)

 

4、張量的運算
維度提升

tensor的broadcasting是不同維度之間進行運算的一種手段,和不同的數據類型進行運算時的原則差不多,比如整型和

float 進行運算的時候,將數據往精度更高的數據類型進行提升,tensor的維度擴張也是類似。

遍歷所有的維度,從尾部維度開始,每個對應的維度大小要么相同,要么其中一個是 1,要么其中一個不存在。不存在

則擴展當前數據,可以看到下圖紅框部分,就數據進行了擴展.

 

a = torch.zeros(2, 3)
b = torch.ones(3)
print(a)
print(b)
print(a + b)

驗證下結果,可以看到最后的結果都是1:

和不同數據類型相加時精度提升一個道理,這里是維度的提升。

 

加法

y = t.rand(2, 3) # 使用[0,1]均勻分布構建矩陣
z = t.ones(2, 3) # 2x3 的全 1 矩陣

# 3 中加法操作等價
print(y + z) ### 加法1
t.add(y, z) ### 加法2
減法
a = t.randn(2, 1)
b = t.randn(2, 1)
print(a)
### 等價操作
print(a - b)
print(t.sub(a, b))
print(a) ### sub 后 a 沒有變化

乘法
矩陣的乘法大學的時候都學過,我們簡單復習下,交叉相乘,理解原理就行,因為多維度的矩陣乘法更復雜,還是

pytorch提供了支持

t.mul(input, other, out=None):矩陣乘以一個數
t.matmul(mat, mat, out=None):矩陣相乘
t.mm(mat, mat, out=None):基本上等同於 matmul

a=torch.randn(2,3)
b=torch.randn(3,2)
### 等價操作
print(torch.mm(a,b)) # mat x mat
print(torch.matmul(a,b)) # mat x mat
### 等價操作
print(torch.mul(a,3)) # mat 乘以 一個數
print(a * 3)

其他的一些運算
pytorch還支持更多的運算,這些運算就不一一介紹了,在使用的時候測試一下就知道結果了

t.div(input, other, out=None)#:除法
t.pow(input, other, out=None)#:指數
t.sqrt(input, out=None)#:開方
t.round(input, out=None)#:四舍五入到整數
t.abs(input, out=None)#:絕對值
t.ceil(input, out=None)#:向上取整
t.clamp(input, min, max, out=None)#:把 input 規范在 min 到 max 之間,超出用 min 和 max 代替,可理解為削尖函數
t.argmax(input, dim=None, keepdim=False)#:返回指定維度最大值的索引

 


總結
tensor是深度學習的基礎,也是入門的,可以簡單的理解為一個多維的數據結構,並且內置了一些特殊運算。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM