人工智能學習pyTorch的ResNet殘差模塊示例詳解

1.定義ResNet殘差模塊
一個block中,有兩個卷積層,之后的輸出還要和輸入進行相加。因此一個block的前向流程如下:
輸入x→卷積層→數(shù)據(jù)標準化→ReLU→卷積層→數(shù)據(jù)標準化→數(shù)據(jù)和x相加→ReLU→輸出out
中間加上了數(shù)據(jù)的標準化(通過nn.BatchNorm2d實現(xiàn)),可以使得效果更好一些。
①各層的定義

②前向傳播
在前向傳播中輸入x,過程中根據(jù)前向流程,調用上面定義的層即可。

如此,便定義好了一個殘差的模塊。
2.ResNet18的實現(xiàn)
此處的ResNet18并沒有涉及到太多細節(jié),只是一個大致的內容。
在初始化的時候,定義好所需要使用的模塊,根據(jù)上面定義好的殘差模塊,調用即可。在這里使用了4次殘差模塊,將通道數(shù)從輸入的3(也就是RGB),變成了512通道。也就是最終提取的高級特征。提取完特征,直接輸入給Linear方法,得到圖片在10種圖片類型上的結果,用于預測以及損失值的求解。
①各層的定義

②前向傳播
同樣的,調用上面定義好的層,根據(jù)流程傳播即可。

3.測試ResNet18
如下圖,輸入的是2張圖,RGB,長寬均是32的數(shù)據(jù)。
通過ResNet18之后,輸出的是2張圖,每張圖對應10種類型的不同取值logits。
過程中的通道數(shù)目的轉換如下面的結果所示:3→64→128→256→512→512
過程中的尺寸轉換,根據(jù)設置的卷積核,以及步長,會有不同的結果。但總體都是為了得到更高級的特征,最終輸入全連層,得到Logits。


以上就是人工智能學習pyTorch的ResNet殘差模塊示例詳解的詳細內容,更多關于PyTorch人工智能學習ResNet殘差模塊的資料請關注本站其它相關文章!
版權聲明:本站文章來源標注為YINGSOO的內容版權均為本站所有,歡迎引用、轉載,請保持原文完整并注明來源及原文鏈接。禁止復制或仿造本網站,禁止在非maisonbaluchon.cn所屬的服務器上建立鏡像,否則將依法追究法律責任。本站部分內容來源于網友推薦、互聯(lián)網收集整理而來,僅供學習參考,不代表本站立場,如有內容涉嫌侵權,請聯(lián)系alex-e#qq.com處理。
關注官方微信