人工智能學(xué)習Pytorch進階操作教程
一、合并與分割
1.cat拼接
直接按照指定的dim維度進行合并,要求除了所需要合并的維度之外,其他的維度需要是一樣的

2.stack堆疊
例:此處創(chuàng)建一個和a一樣的tensor,按照某一維度進行stack,就會在堆疊的維度前面,生成一個新的維度,用以進行選擇,比如新生成了一個2維,就可以通過0,1進行選擇。具體是什么意義,取決于實際的問題。
比如兩個班成績單用stack合并,生成的新維度,就可以選擇0或1來選擇這個新維度,從而達到選擇班級的目的。

3.拆分
①Split按長度拆分
第一個參數(shù)可以是單獨的數(shù)字a,意思是每一個拆分出來的部分有a個數(shù)據(jù);可以是一個類似list的對象b,意思是把數(shù)據(jù)按照b里面的方式拆分,拆分成len(b)個tensor。

②Chunk按數(shù)量拆分
傳入的第一個參數(shù)就是拆成幾個chunk,然后把原來的維度除以這個數(shù)量即可。
比如下面的例子,原來維度是[2,32,8],chunk參數(shù)傳入2,就需要拆成2個,則2/2=1,最終每一個的維度變?yōu)閇1,32,8]。

二、基本運算
1.加減乘除
和numpy中的一致。也可以使用torch.add等方法。

2.矩陣相乘
注意,*就是元素與元素相乘,而矩陣相乘可以用以下兩種:torch.matmul,@

如果是高維矩陣相乘,計算的其實就是最后的兩個維度的矩陣乘法。

3.次方計算
和numpy中一致,可以使用**來計算任意次方。此外.pow()也可以計算。

指數(shù)和對數(shù)計算也基本一致,log默認是以e為底的。

4. clamp
通常用于當出現(xiàn)梯度過大等情況時,對梯度進行裁剪。通過輸入最大最小值,目標中超出最大值的按最大值來;低于最小值的按最小值來。

三、屬性統(tǒng)計
1.求范數(shù)
注意一點:求哪個維度的范數(shù),哪個維度就會被消掉。

2.求極值、求和、累乘

3. dim和keepdim
在很多方法中,都可以對dim進行設(shè)置。如果不設(shè)置,就是把所有數(shù)據(jù)展開后,求全局的。
注意這里的dim,a的形狀是[4,10],求最大值時,如果設(shè)置dim=1,也就是列,個人理解,意思是結(jié)果的維度需要是列,那么就是把整行的數(shù)值進行計算找最大值,最后返回一個列作為結(jié)果。

4.topk和kthvalue
topk參數(shù):k(前k個最大值),dim(以dim的維度返回結(jié)果)
這個方法默認的是返回的最大值,同時會返回它們的索引。
kthvalue參數(shù):k(第k小的值),dim

5.比較運算
和Numpy中的一致。如果使用torch.eq方法,返回每個對應(yīng)位置的結(jié)果;如果使用torch.equal方法,返回的是整體對比的結(jié)果。

6.高階操作
①where

②gather
索引行數(shù)小于等于表的行數(shù)。也就是說,既然要用索引來去找表中的內(nèi)容,就不能超過表的索引長度。索引在傳入gather方法中的時候,必須要轉(zhuǎn)換成Long的類型。
舉例如下:

返回值的形狀一定是索引的形狀,因為就是按照索引去取的值。返回值的內(nèi)容就來自于輸入的input,根據(jù)索引獲得的對應(yīng)的值。
以上就是人工智能學(xué)習Pytorch進階操作教程的詳細內(nèi)容,更多關(guān)于PyTorch進階的資料請關(guān)注本站其它相關(guān)文章!
版權(quán)聲明:本站文章來源標注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非maisonbaluchon.cn所屬的服務(wù)器上建立鏡像,否則將依法追究法律責任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。
關(guān)注官方微信