五月综合激情婷婷六月,日韩欧美国产一区不卡,他扒开我内裤强吻我下面视频 ,无套内射无矿码免费看黄,天天躁,日日躁,狠狠躁

新聞動態(tài)

pytorch中的優(yōu)化器optimizer.param_groups用法

發(fā)布日期:2022-03-29 16:22 | 文章來源:站長之家

optimizer.param_groups: 是長度為2的list,其中的元素是2個字典;

optimizer.param_groups[0]: 長度為6的字典,包括[‘a(chǎn)msgrad', ‘params', ‘lr', ‘betas', ‘weight_decay', ‘eps']這6個參數(shù);

optimizer.param_groups[1]: 好像是表示優(yōu)化器的狀態(tài)的一個字典;

import torch
import torch.optim as optimh2
w1 = torch.randn(3, 3)
w1.requires_grad = True
w2 = torch.randn(3, 3)
w2.requires_grad = True
o = optim.Adam([w1])
print(o.param_groups)
[{'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[ 2.9064, -0.2141, -0.4037],
  [-0.5718,  1.0375, -0.6862],
  [-0.8372,  0.4380, -0.1572]])],
  'weight_decay': 0}]
Per the docs, the add_param_group method accepts a param_group parameter that is a dict. Example of use:h2import torch
import torch.optim as optimh2
w1 = torch.randn(3, 3)
w1.requires_grad = True
w2 = torch.randn(3, 3)
w2.requires_grad = True
o = optim.Adam([w1])
print(o.param_groups)
givesh2[{'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[ 2.9064, -0.2141, -0.4037],
  [-0.5718,  1.0375, -0.6862],
  [-0.8372,  0.4380, -0.1572]])],
  'weight_decay': 0}]
nowh2o.add_param_group({'params': w2})
print(o.param_groups)
[{'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[ 2.9064, -0.2141, -0.4037],
  [-0.5718,  1.0375, -0.6862],
  [-0.8372,  0.4380, -0.1572]])],
  'weight_decay': 0},
 {'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[-0.0560,  0.4585, -0.7589],
  [-0.1994,  0.4557,  0.5648],
  [-0.1280, -0.0333, -1.1886]])],
  'weight_decay': 0}]
# 動態(tài)修改學(xué)習(xí)率
for param_group in optimizer.param_groups:
 param_group["lr"] = lr 
# 得到學(xué)習(xí)率optimizer.param_groups[0]["lr"] h2# print('查看optimizer.param_groups結(jié)構(gòu):')
# i_list=[i for i in optimizer.param_groups[0].keys()]
# print(i_list) 
['amsgrad', 'params', 'lr', 'betas', 'weight_decay', 'eps']

補(bǔ)充:pytorch中的優(yōu)化器總結(jié)

以SGD優(yōu)化器為例:

# -*- coding: utf-8 -*-
#@Time :2019/7/3 22:31
#@Author  :XiaoMa
 
from torch import nn as nn
import torch as t
from torch.autograd import Variable as V
#定義一個LeNet網(wǎng)絡(luò)
class Net(nn.Module):
 def __init__(self):
  super(Net,self).__init__()
  self.features=nn.Sequential(
nn.Conv2d(3,6,5),
nn.ReLU(),
nn.MaxPool2d(2,2),
nn.Conv2d(6,16,5),
nn.ReLU(),
nn.MaxPool2d(2,3)
  )
  
  self.classifier=nn.Sequential(\
nn.Linear(16*5*5,120),
nn.ReLU(),
nn.Linear(120,84),
nn.ReLU(),
nn.Linear(84,10)
)
 def forward(self, x):
  x=self.features(x)
  x=x.view(-1,16*5*5)
  x=self.classifier(x)
  return x
net=Net()
 
from torch import optim #優(yōu)化器
optimizer=optim.SGD(params=net.parameters(),lr=1)
optimizer.zero_grad()#梯度清零,相當(dāng)于net.zero_grad()
 
input=V(t.randn(1,3,32,32))
output=net(input)
output.backward(output)  #fake backward
optimizer.step() #執(zhí)行優(yōu)化
 
#為不同子網(wǎng)絡(luò)設(shè)置不同的學(xué)習(xí)率,在finetune中經(jīng)常用到
#如果對某個參數(shù)不指定學(xué)習(xí)率,就使用默認(rèn)學(xué)習(xí)率
optimizer=optim.SGD(
 [{'param':net.features.parameters()}, #學(xué)習(xí)率為1e-5
 {'param':net.classifier.parameters(),'lr':1e-2}],lr=1e-5
)
 
#只為兩個全連接層設(shè)置較大的學(xué)習(xí)率,其余層的學(xué)習(xí)率較小
special_layers=nn.ModuleList([net.classifier[0],net.classifier[3]])
special_layers_params=list(map(id,special_layers.parameters()))
base_params=filter(lambda p:id(p) not in special_layers_params,net.parameters())
 
optimizer=t.optim.SGD([
 {'param':base_params},
 {'param':special_layers.parameters(),'lr':0.01}
],lr=0.001)

調(diào)整學(xué)習(xí)率主要有兩種做法。

一種是修改optimizer.param_groups中對應(yīng)的學(xué)習(xí)率,另一種是新建優(yōu)化器(更簡單也是更推薦的做法),由于optimizer十分輕量級,構(gòu)建開銷很小,故可以構(gòu)建新的optimizer。

但是新建優(yōu)化器會重新初始化動量等狀態(tài)信息,這對使用動量的優(yōu)化器來說(如自帶的momentum的sgd),可能會造成損失函數(shù)在收斂過程中出現(xiàn)震蕩。

如:

#調(diào)整學(xué)習(xí)率,新建一個optimizer
old_lr=0.1
optimizer=optim.SGD([
 {'param':net.features.parameters()},
 {'param':net.classifiers.parameters(),'lr':old_lr*0.5}],lr=1e-5)

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持本站。

香港服務(wù)器租用

版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非maisonbaluchon.cn所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。

相關(guān)文章

實時開通

自選配置、實時開通

免備案

全球線路精選!

全天候客戶服務(wù)

7x24全年不間斷在線

專屬顧問服務(wù)

1對1客戶咨詢顧問

在線
客服

在線客服:7*24小時在線

客服
熱線

400-630-3752
7*24小時客服服務(wù)熱線

關(guān)注
微信

關(guān)注官方微信
頂部