Python深度學習之Pytorch初步使用
一、Tensor
Tensor(張量是一個統(tǒng)稱,其中包括很多類型):
0階張量:標量、常數(shù)、0-D Tensor;1階張量:向量、1-D Tensor;2階張量:矩陣、2-D Tensor;……
二、Pytorch如何創(chuàng)建張量
2.1 創(chuàng)建張量
import torch t = torch.Tensor([1, 2, 3]) print(t)

2.2 tensor與ndarray的關系
兩者之間可以相互轉化
import torch import numpy as np t1 = np.array(torch.Tensor([[1, 2, 3], [1, 2, 3]])) t2 = torch.Tensor(np.array([[1, 2, 3], [1, 2, 3]]))
運行結果:

2.3 常用api
torch.empty(x,y)
創(chuàng)建x行y列為空的tensor。

torch.ones([x, y])
創(chuàng)建x行y列全為1的tensor。

torch.zeros([x,y])
創(chuàng)建x行y列全為0的temsor。

zeros與empty的區(qū)別
后者的數(shù)據(jù)類型是不固定的。
torch.rand(x, y)
創(chuàng)建3行4列的隨機數(shù),隨機數(shù)是0-1。

torch.randint(low, high, size)
創(chuàng)建一個size的tensor,隨機數(shù)為low到high之間。

torch.randn([x, y])
創(chuàng)建一個x行y列的tensor,隨機數(shù)的分布式均值為0,方差1。
2.4 常用方法
item():
獲取tensor中的元素,注意只有
一個元素的時候才可以用。

numpy():
轉化成
ndarray類型。

size()
獲取tensor的
形狀。

view()
可以傳參,表示獲取第幾個。若參數(shù)為-1,表示不確定,與另一個參數(shù)的乘積等于原始形狀的乘積。 例如:原始形狀為8,則
淺拷貝,tensor的形狀改變。view(-1,2)⇒view(4, 2); 參數(shù)只有-1,表示一維。

dim()
獲取維度。

max()
獲取最大值。

t()
轉置。

transpose(x,y)
x,y是size里面返回的形狀相換。

permute()
傳入size()返回的形狀的順序。

transpose與permute的區(qū)別
前者傳入列即可相互交換;后者傳入列會根據(jù)傳入的順序來進行轉化,且需要傳入所有列數(shù)的索引。
取值[第一階, 第二階,……]
一個逗號隔開代表一個階乘冒號代表全取

賦值[第一階, 第二階,……]
直接賦值即可

三、數(shù)據(jù)類型

3.1 獲取數(shù)據(jù)類型
tensor.dtype
獲取數(shù)據(jù)類型

設置數(shù)據(jù)類型
注意使用
Tensor()不能指定數(shù)據(jù)類型。

type()
修改數(shù)據(jù)類型。

四、tensor的其他操作
4.1 相加
torch.add(x, y)
將x和y
相加。

直接相加

tensor.add()
使用add_() 可相加后直接保存在tensor中

4.2 tensor與數(shù)字的操作
tensor + 數(shù)值

五、CUDA中的tensor
CUDA (Compute Unified Device Architecture),是NVIDIA推出的運算平臺。CUDATM是一種由NVIDIA推出的通用并行計算架構,該架構使GPU能夠解決復雜的計算問題。
torch.cuda這個模塊增加了對CUDA tensor的支持,能夠在cpu和gpu上使用相同的方法操作tensor通過.to方法能夠把一個tensor轉移到另外一個設備(比如從CPU轉到GPU)
可以使用torch.cuda.is_available()判斷電腦是否支持GPU
到此這篇關于Python深度學習之Pytorch初步使用的文章就介紹到這了,更多相關Pytorch初步使用內容請搜索本站以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持本站!
版權聲明:本站文章來源標注為YINGSOO的內容版權均為本站所有,歡迎引用、轉載,請保持原文完整并注明來源及原文鏈接。禁止復制或仿造本網(wǎng)站,禁止在非maisonbaluchon.cn所屬的服務器上建立鏡像,否則將依法追究法律責任。本站部分內容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學習參考,不代表本站立場,如有內容涉嫌侵權,請聯(lián)系alex-e#qq.com處理。
關注官方微信