一、Tensor
Tensor(張量是一個(gè)統(tǒng)稱,其中包括很多類型):
0階張量:標(biāo)量、常數(shù)、0-D Tensor;1階張量:向量、1-D Tensor;2階張量:矩陣、2-D Tensor;……
二、Pytorch如何創(chuàng)建張量
2.1 創(chuàng)建張量
import torch
t = torch.Tensor([1, 2, 3])
print(t)
2.2 tensor與ndarray的關(guān)系
兩者之間可以相互轉(zhuǎn)化
import torch
import numpy as np
t1 = np.array(torch.Tensor([[1, 2, 3],
[1, 2, 3]]))
t2 = torch.Tensor(np.array([[1, 2, 3],
[1, 2, 3]]))
運(yùn)行結(jié)果:
2.3 常用api
torch.empty(x,y)
創(chuàng)建x行y列為空的tensor。
torch.ones([x, y])
創(chuàng)建x行y列全為1的tensor。
torch.zeros([x,y])
創(chuàng)建x行y列全為0的temsor。
zeros與empty的區(qū)別
后者的數(shù)據(jù)類型是不固定的。
torch.rand(x, y)
創(chuàng)建3行4列的隨機(jī)數(shù),隨機(jī)數(shù)是0-1。
torch.randint(low, high, size)
創(chuàng)建一個(gè)size的tensor,隨機(jī)數(shù)為low到high之間。
torch.randn([x, y])
創(chuàng)建一個(gè)x行y列的tensor,隨機(jī)數(shù)的分布式均值為0,方差1。
2.4 常用方法
item():
獲取tensor中的元素,注意只有
一個(gè)元素
的時(shí)候才可以用。
numpy():
轉(zhuǎn)化成
ndarray
類型。
size()
獲取tensor的
形狀
。
view()
可以傳參,表示獲取第幾個(gè)。若參數(shù)為-1,表示不確定,與另一個(gè)參數(shù)的乘積等于原始形狀的乘積。 例如:原始形狀為8,則
淺拷貝
,tensor的形狀改變
。view(-1,2)
?view(4, 2)
; 參數(shù)只有-1,表示一維。
dim()
獲取維度。
max()
獲取最大值。
t()
轉(zhuǎn)置。
transpose(x,y)
x,y是size里面返回的形狀相換。
permute()
傳入size()返回的形狀的順序。
transpose與permute的區(qū)別
前者傳入列即可相互交換;后者傳入列會根據(jù)傳入的順序來進(jìn)行轉(zhuǎn)化,且需要傳入所有列數(shù)的索引。
取值[第一階, 第二階,……]
一個(gè)逗號隔開代表一個(gè)階乘冒號代表全取
賦值[第一階, 第二階,……]
直接賦值即可
三、數(shù)據(jù)類型
3.1 獲取數(shù)據(jù)類型
tensor.dtype
獲取數(shù)據(jù)類型
設(shè)置數(shù)據(jù)類型
注意使用
Tensor()
不能指定數(shù)據(jù)類型。
type()
修改
數(shù)據(jù)類型。
四、tensor的其他操作
4.1 相加
torch.add(x, y)
將x和y
相加
。
直接相加
tensor.add()
使用add_()
可相加后直接保存在tensor中
4.2 tensor與數(shù)字的操作
tensor + 數(shù)值
五、CUDA中的tensor
CUDA
(Compute Unified Device Architecture),是NVIDIA推出的運(yùn)算平臺。CUDATM是一種由NVIDIA推出的通用并行計(jì)算架構(gòu),該架構(gòu)使GPU能夠解決復(fù)雜的計(jì)算問題。
torch.cuda這個(gè)模塊增加了對CUDA tensor的支持,能夠在cpu和gpu上使用相同的方法操作tensor通過.to
方法能夠把一個(gè)tensor轉(zhuǎn)移到另外一個(gè)設(shè)備(比如從CPU轉(zhuǎn)到GPU)
可以使用torch.cuda.is_available()
判斷電腦是否支持GPU
到此這篇pytorch怎么用的文章就介紹到這了,值得一提的是,本文力求精簡所以在一些詳細(xì)的地方并沒有深入介紹,如果需要相應(yīng)的收藏可以關(guān)注W3Cschool搜索相關(guān)的手冊。