五月综合激情婷婷六月,日韩欧美国产一区不卡,他扒开我内裤强吻我下面视频 ,无套内射无矿码免费看黄,天天躁,日日躁,狠狠躁

新聞動(dòng)態(tài)

將pytorch的網(wǎng)絡(luò)等轉(zhuǎn)移到cuda

發(fā)布日期:2022-03-27 12:22 | 文章來(lái)源:CSDN

神經(jīng)網(wǎng)絡(luò)一般用GPU來(lái)跑,我們的神經(jīng)網(wǎng)絡(luò)框架一般也都安裝的GPU版本,本文就簡(jiǎn)單記錄一下GPU使用的編寫(xiě)。

GPU的設(shè)置不在model,而是在Train的初始化上。

第一步是查看是否可以使用GPU

self.GPU_IN_USE = torch.cuda.is_available()

就是返回這個(gè)可不可以用GPU的函數(shù),當(dāng)你的pytorch是cpu版本的時(shí)候,他就會(huì)返回False。

然后是:

self.device = torch.device('cuda' if self.GPU_IN_USE else 'cpu')

torch.device是代表將torch.tensor分配到哪個(gè)設(shè)備的函數(shù)

接著是,我看到了一篇文章,原來(lái)就是將網(wǎng)絡(luò)啊、數(shù)據(jù)啊、隨機(jī)種子啊、損失函數(shù)啊、等等等等直接轉(zhuǎn)移到CUDA上就好了!

于是下面就好理解多了:

轉(zhuǎn)移模型:

self.model = Net(num_channels=1, upscale_factor=self.upscale_factor, base_channel=64, num_residuals=4).to(self.device)

設(shè)置cuda的隨機(jī)種子:

torch.cuda.manual_seed(self.seed)

轉(zhuǎn)移損失函數(shù):

self.criterion.cuda()

轉(zhuǎn)移數(shù)據(jù):

data, target = data.to(self.device), target.to(self.device)

pytorch 網(wǎng)絡(luò)定義參數(shù)的后面無(wú)法加.cuda()

pytorch定義網(wǎng)絡(luò)__init__()的時(shí)候,參數(shù)不能加“cuda()", 不然參數(shù)不包含在state_dict()中,比如下面這種寫(xiě)法是錯(cuò)誤的

self.W1 = nn.Parameter(torch.FloatTensor(3,3), requires_grad=True).cuda()

應(yīng)該去掉".cuda()"

self.W1 = nn.Parameter(torch.FloatTensor(3,3), requires_grad=True)

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持本站。

美國(guó)服務(wù)器租用

版權(quán)聲明:本站文章來(lái)源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請(qǐng)保持原文完整并注明來(lái)源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非maisonbaluchon.cn所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來(lái)源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來(lái),僅供學(xué)習(xí)參考,不代表本站立場(chǎng),如有內(nèi)容涉嫌侵權(quán),請(qǐng)聯(lián)系alex-e#qq.com處理。

相關(guān)文章

實(shí)時(shí)開(kāi)通

自選配置、實(shí)時(shí)開(kāi)通

免備案

全球線路精選!

全天候客戶(hù)服務(wù)

7x24全年不間斷在線

專(zhuān)屬顧問(wèn)服務(wù)

1對(duì)1客戶(hù)咨詢(xún)顧問(wèn)

在線
客服

在線客服:7*24小時(shí)在線

客服
熱線

400-630-3752
7*24小時(shí)客服服務(wù)熱線

關(guān)注
微信

關(guān)注官方微信
頂部