欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

pytorch中的優(yōu)化器optimizer.param_groups用法

 更新時間:2021年05月31日 11:40:03   作者:我是天才很好  
這篇文章主要介紹了pytorch中的優(yōu)化器optimizer.param_groups用法,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教

optimizer.param_groups: 是長度為2的list,其中的元素是2個字典;

optimizer.param_groups[0]: 長度為6的字典,包括[‘a(chǎn)msgrad', ‘params', ‘lr', ‘betas', ‘weight_decay', ‘eps']這6個參數(shù);

optimizer.param_groups[1]: 好像是表示優(yōu)化器的狀態(tài)的一個字典;

import torch
import torch.optim as optimh2
w1 = torch.randn(3, 3)
w1.requires_grad = True
w2 = torch.randn(3, 3)
w2.requires_grad = True
o = optim.Adam([w1])
print(o.param_groups)
[{'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[ 2.9064, -0.2141, -0.4037],
           [-0.5718,  1.0375, -0.6862],
           [-0.8372,  0.4380, -0.1572]])],
  'weight_decay': 0}]
Per the docs, the add_param_group method accepts a param_group parameter that is a dict. Example of use:h2import torch
import torch.optim as optimh2
w1 = torch.randn(3, 3)
w1.requires_grad = True
w2 = torch.randn(3, 3)
w2.requires_grad = True
o = optim.Adam([w1])
print(o.param_groups)
givesh2[{'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[ 2.9064, -0.2141, -0.4037],
           [-0.5718,  1.0375, -0.6862],
           [-0.8372,  0.4380, -0.1572]])],
  'weight_decay': 0}]
nowh2o.add_param_group({'params': w2})
print(o.param_groups)
[{'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[ 2.9064, -0.2141, -0.4037],
           [-0.5718,  1.0375, -0.6862],
           [-0.8372,  0.4380, -0.1572]])],
  'weight_decay': 0},
 {'amsgrad': False,
  'betas': (0.9, 0.999),
  'eps': 1e-08,
  'lr': 0.001,
  'params': [tensor([[-0.0560,  0.4585, -0.7589],
           [-0.1994,  0.4557,  0.5648],
           [-0.1280, -0.0333, -1.1886]])],
  'weight_decay': 0}]
# 動態(tài)修改學習率
for param_group in optimizer.param_groups:
    param_group["lr"] = lr 
# 得到學習率optimizer.param_groups[0]["lr"] h2# print('查看optimizer.param_groups結(jié)構(gòu):')
# i_list=[i for i in optimizer.param_groups[0].keys()]
# print(i_list)    
['amsgrad', 'params', 'lr', 'betas', 'weight_decay', 'eps']

補充:pytorch中的優(yōu)化器總結(jié)

以SGD優(yōu)化器為例:

# -*- coding: utf-8 -*-
#@Time    :2019/7/3 22:31
#@Author  :XiaoMa
 
from torch import nn as nn
import torch as t
from torch.autograd import Variable as V
#定義一個LeNet網(wǎng)絡
class Net(nn.Module):
    def __init__(self):
        super(Net,self).__init__()
        self.features=nn.Sequential(
            nn.Conv2d(3,6,5),
            nn.ReLU(),
            nn.MaxPool2d(2,2),
            nn.Conv2d(6,16,5),
            nn.ReLU(),
            nn.MaxPool2d(2,3)
        )
        
        self.classifier=nn.Sequential(\
            nn.Linear(16*5*5,120),
            nn.ReLU(),
            nn.Linear(120,84),
            nn.ReLU(),
            nn.Linear(84,10)
            )
    def forward(self, x):
        x=self.features(x)
        x=x.view(-1,16*5*5)
        x=self.classifier(x)
        return x
net=Net()
 
from torch import optim #優(yōu)化器
optimizer=optim.SGD(params=net.parameters(),lr=1)
optimizer.zero_grad()   #梯度清零,相當于net.zero_grad()
 
input=V(t.randn(1,3,32,32))
output=net(input)
output.backward(output)     #fake backward
optimizer.step()    #執(zhí)行優(yōu)化
 
#為不同子網(wǎng)絡設置不同的學習率,在finetune中經(jīng)常用到
#如果對某個參數(shù)不指定學習率,就使用默認學習率
optimizer=optim.SGD(
    [{'param':net.features.parameters()},    #學習率為1e-5
    {'param':net.classifier.parameters(),'lr':1e-2}],lr=1e-5
)
 
#只為兩個全連接層設置較大的學習率,其余層的學習率較小
special_layers=nn.ModuleList([net.classifier[0],net.classifier[3]])
special_layers_params=list(map(id,special_layers.parameters()))
base_params=filter(lambda p:id(p) not in special_layers_params,net.parameters())
 
optimizer=t.optim.SGD([
    {'param':base_params},
    {'param':special_layers.parameters(),'lr':0.01}
],lr=0.001)

調(diào)整學習率主要有兩種做法。

一種是修改optimizer.param_groups中對應的學習率,另一種是新建優(yōu)化器(更簡單也是更推薦的做法),由于optimizer十分輕量級,構(gòu)建開銷很小,故可以構(gòu)建新的optimizer。

但是新建優(yōu)化器會重新初始化動量等狀態(tài)信息,這對使用動量的優(yōu)化器來說(如自帶的momentum的sgd),可能會造成損失函數(shù)在收斂過程中出現(xiàn)震蕩。

如:

#調(diào)整學習率,新建一個optimizer
old_lr=0.1
optimizer=optim.SGD([
                {'param':net.features.parameters()},
                {'param':net.classifiers.parameters(),'lr':old_lr*0.5}],lr=1e-5)

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

相關文章

  • django多種支付、并發(fā)訂單處理實例代碼

    django多種支付、并發(fā)訂單處理實例代碼

    在本篇文章里小編給大家整理的是關于django多種支付、并發(fā)訂單處理實例代碼,需要的朋友們可以學習下。
    2019-12-12
  • Python映射類型之dict詳解

    Python映射類型之dict詳解

    這篇文章主要為大家詳細介紹了Python映射類型之dict,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下,希望能夠給你帶來幫助
    2022-03-03
  • pytorch基礎之損失函數(shù)與反向傳播詳解

    pytorch基礎之損失函數(shù)與反向傳播詳解

    損失函數(shù)(Loss?Function)用于衡量神經(jīng)網(wǎng)絡輸出與目標值之間的誤差,指導網(wǎng)絡通過反向傳播優(yōu)化參數(shù),常見的損失函數(shù)包括均方誤差和交叉熵誤差,在訓練過程中,通過不斷最小化損失函數(shù)值來調(diào)整網(wǎng)絡權重,以期達到輸出接近目標值的效果
    2024-09-09
  • Python 中將秒轉(zhuǎn)換為小時、分鐘和秒的示例代碼

    Python 中將秒轉(zhuǎn)換為小時、分鐘和秒的示例代碼

    這篇文章主要介紹了在 Python 中將秒轉(zhuǎn)換為小時、分鐘和秒,本篇文章將討論使用 Python 中的四種不同方法來使用、管理秒并將其轉(zhuǎn)換為天、小時、分鐘和秒,需要的朋友可以參考下
    2023-05-05
  • Python簡單計算文件夾大小的方法

    Python簡單計算文件夾大小的方法

    這篇文章主要介紹了Python簡單計算文件夾大小的方法,涉及Python針對目錄的遍歷與文件計算的相關技巧,具有一定參考借鑒價值,需要的朋友可以參考下
    2015-07-07
  • Java中關于泛型接口的使用說明

    Java中關于泛型接口的使用說明

    這篇文章主要介紹了Java中關于泛型接口的使用說明,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2023-08-08
  • Python爬蟲教程之利用正則表達式匹配網(wǎng)頁內(nèi)容

    Python爬蟲教程之利用正則表達式匹配網(wǎng)頁內(nèi)容

    這篇文章主要給大家介紹了關于Python爬蟲教程之利用正則表達式匹配網(wǎng)頁內(nèi)容的相關資料,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2020-12-12
  • Python監(jiān)聽剪切板實現(xiàn)方法代碼實例

    Python監(jiān)聽剪切板實現(xiàn)方法代碼實例

    這篇文章主要介紹了Python監(jiān)聽剪切板實現(xiàn)方法代碼實例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2020-11-11
  • python使用mysql的兩種使用方式

    python使用mysql的兩種使用方式

    pymsql是Python中操作MySQL的模塊。這篇文章主要介紹了python使用mysql的兩種使用方式,需要的朋友可以參考下
    2018-03-03
  • Python??MkDocs優(yōu)雅地編寫文檔

    Python??MkDocs優(yōu)雅地編寫文檔

    在軟件開發(fā)過程中,編寫文檔是非常重要的一環(huán),文檔不僅可以幫助用戶理解和使用你的軟件,還可以提高團隊協(xié)作效率,然傳統(tǒng)的文檔寫作方式往往繁瑣而復雜,不易于維護更新,MkDocs工具以簡潔、優(yōu)雅的方式編寫文檔,并且能夠輕松生成漂亮的靜態(tài)網(wǎng)站
    2024-01-01

最新評論