欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

torch.optim優(yōu)化算法理解之optim.Adam()解讀

 更新時(shí)間:2022年11月16日 10:09:09   作者:KGzhang  
這篇文章主要介紹了torch.optim優(yōu)化算法理解之optim.Adam()解讀,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教

optim.Adam()解讀

torch.optim是一個(gè)實(shí)現(xiàn)了多種優(yōu)化算法的包,大多數(shù)通用的方法都已支持,提供了豐富的接口調(diào)用,未來(lái)更多精煉的優(yōu)化算法也將整合進(jìn)來(lái)。

為了使用torch.optim,需先構(gòu)造一個(gè)優(yōu)化器對(duì)象Optimizer,用來(lái)保存當(dāng)前的狀態(tài),并能夠根據(jù)計(jì)算得到的梯度來(lái)更新參數(shù)。

要構(gòu)建一個(gè)優(yōu)化器optimizer,你必須給它一個(gè)可進(jìn)行迭代優(yōu)化的包含了所有參數(shù)(所有的參數(shù)必須是變量s)的列表。 然后,您可以指定程序優(yōu)化特定的選項(xiàng),例如學(xué)習(xí)速率,權(quán)重衰減等。

optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9)
optimizer = optim.Adam([var1, var2], lr = 0.0001)
self.optimizer_D_B = torch.optim.Adam(self.netD_B.parameters(), lr=opt.lr, betas=(opt.beta1, 0.999))
  • Optimizer還支持指定每個(gè)參數(shù)選項(xiàng)。 只需傳遞一個(gè)可迭代的dict來(lái)替換先前可迭代的Variable。
  • dict中的每一項(xiàng)都可以定義為一個(gè)單獨(dú)的參數(shù)組,參數(shù)組用一個(gè)params鍵來(lái)包含屬于它的參數(shù)列表。

其他鍵應(yīng)該與優(yōu)化器接受的關(guān)鍵字參數(shù)相匹配,才能用作此組的優(yōu)化選項(xiàng)。

optim.SGD([
? ? ? ? ? ? ? ? {'params': model.base.parameters()},
? ? ? ? ? ? ? ? {'params': model.classifier.parameters(), 'lr': 1e-3}
? ? ? ? ? ? ], lr=1e-2, momentum=0.9)

如上,model.base.parameters()將使用1e-2的學(xué)習(xí)率,model.classifier.parameters()將使用1e-3的學(xué)習(xí)率。0.9的momentum作用于所有的parameters。

優(yōu)化步驟

所有的優(yōu)化器Optimizer都實(shí)現(xiàn)了step()方法來(lái)對(duì)所有的參數(shù)進(jìn)行更新,它有兩種調(diào)用方法:

optimizer.step()

這是大多數(shù)優(yōu)化器都支持的簡(jiǎn)化版本,使用如下的backward()方法來(lái)計(jì)算梯度的時(shí)候會(huì)調(diào)用它。

for input, target in dataset:
? ? optimizer.zero_grad()
? ? output = model(input)
? ? loss = loss_fn(output, target)
? ? loss.backward()
? ? optimizer.step()
optimizer.step(closure)

一些優(yōu)化算法,如共軛梯度和LBFGS需要重新評(píng)估目標(biāo)函數(shù)多次,所以你必須傳遞一個(gè)closure以重新計(jì)算模型。 closure必須清除梯度,計(jì)算并返回?fù)p失。

for input, target in dataset:
? ? def closure():
? ? ? ? optimizer.zero_grad()
? ? ? ? output = model(input)
? ? ? ? loss = loss_fn(output, target)
? ? ? ? loss.backward()
? ? ? ? return loss
? ? optimizer.step(closure)

Adam算法

adam算法來(lái)源:Adam: A Method for Stochastic Optimization

Adam(Adaptive Moment Estimation)本質(zhì)上是帶有動(dòng)量項(xiàng)的RMSprop,它利用梯度的一階矩估計(jì)和二階矩估計(jì)動(dòng)態(tài)調(diào)整每個(gè)參數(shù)的學(xué)習(xí)率。它的優(yōu)點(diǎn)主要在于經(jīng)過(guò)偏置校正后,每一次迭代學(xué)習(xí)率都有個(gè)確定范圍,使得參數(shù)比較平穩(wěn)。

其公式如下

這里寫圖片描述

其中,前兩個(gè)公式分別是對(duì)梯度的一階矩估計(jì)和二階矩估計(jì),可以看作是對(duì)期望E|gt|,E|gt^2|的估計(jì);

公式3,4是對(duì)一階二階矩估計(jì)的校正,這樣可以近似為對(duì)期望的無(wú)偏估計(jì)。可以看出,直接對(duì)梯度的矩估計(jì)對(duì)內(nèi)存沒(méi)有額外的要求,而且可以根據(jù)梯度進(jìn)行動(dòng)態(tài)調(diào)整。

最后一項(xiàng)前面部分是對(duì)學(xué)習(xí)率n形成的一個(gè)動(dòng)態(tài)約束,而且有明確的范圍

class torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)

參數(shù)

  • params(iterable):可用于迭代優(yōu)化的參數(shù)或者定義參數(shù)組的dicts。
  • lr (float, optional) :學(xué)習(xí)率(默認(rèn): 1e-3)
  • betas (Tuple[float, float], optional):用于計(jì)算梯度的平均和平方的系數(shù)(默認(rèn): (0.9, 0.999))
  • eps (float, optional):為了提高數(shù)值穩(wěn)定性而添加到分母的一個(gè)項(xiàng)(默認(rèn): 1e-8)
  • weight_decay (float, optional):權(quán)重衰減(如L2懲罰)(默認(rèn): 0)
  • step(closure=None)函數(shù):執(zhí)行單一的優(yōu)化步驟
  • closure (callable, optional):用于重新評(píng)估模型并返回?fù)p失的一個(gè)閉包 

torch.optim.adam源碼

import math
from .optimizer import Optimizer

class Adam(Optimizer):
? ? def __init__(self, params, lr=1e-3, betas=(0.9, 0.999), eps=1e-8,weight_decay=0):
? ? ? ? defaults = dict(lr=lr, betas=betas, eps=eps,weight_decay=weight_decay)
? ? ? ? super(Adam, self).__init__(params, defaults)

? ? def step(self, closure=None):
? ? ? ? loss = None
? ? ? ? if closure is not None:
? ? ? ? ? ? loss = closure()

? ? ? ? for group in self.param_groups:
? ? ? ? ? ? for p in group['params']:
? ? ? ? ? ? ? ? if p.grad is None:
? ? ? ? ? ? ? ? ? ? continue
? ? ? ? ? ? ? ? grad = p.grad.data
? ? ? ? ? ? ? ? state = self.state[p]

? ? ? ? ? ? ? ? # State initialization
? ? ? ? ? ? ? ? if len(state) == 0:
? ? ? ? ? ? ? ? ? ? state['step'] = 0
? ? ? ? ? ? ? ? ? ? # Exponential moving average of gradient values
? ? ? ? ? ? ? ? ? ? state['exp_avg'] = grad.new().resize_as_(grad).zero_()
? ? ? ? ? ? ? ? ? ? # Exponential moving average of squared gradient values
? ? ? ? ? ? ? ? ? ? state['exp_avg_sq'] = grad.new().resize_as_(grad).zero_()

? ? ? ? ? ? ? ? exp_avg, exp_avg_sq = state['exp_avg'], state['exp_avg_sq']
? ? ? ? ? ? ? ? beta1, beta2 = group['betas']

? ? ? ? ? ? ? ? state['step'] += 1

? ? ? ? ? ? ? ? if group['weight_decay'] != 0:
? ? ? ? ? ? ? ? ? ? grad = grad.add(group['weight_decay'], p.data)

? ? ? ? ? ? ? ? # Decay the first and second moment running average coefficient
? ? ? ? ? ? ? ? exp_avg.mul_(beta1).add_(1 - beta1, grad)
? ? ? ? ? ? ? ? exp_avg_sq.mul_(beta2).addcmul_(1 - beta2, grad, grad)

? ? ? ? ? ? ? ? denom = exp_avg_sq.sqrt().add_(group['eps'])

? ? ? ? ? ? ? ? bias_correction1 = 1 - beta1 ** state['step']
? ? ? ? ? ? ? ? bias_correction2 = 1 - beta2 ** state['step']
? ? ? ? ? ? ? ? step_size = group['lr'] * math.sqrt(bias_correction2) / bias_correction1

? ? ? ? ? ? ? ? p.data.addcdiv_(-step_size, exp_avg, denom)

? ? ? ? return loss

Adam的特點(diǎn)有

1、結(jié)合了Adagrad善于處理稀疏梯度和RMSprop善于處理非平穩(wěn)目標(biāo)的優(yōu)點(diǎn);

2、對(duì)內(nèi)存需求較小;

3、為不同的參數(shù)計(jì)算不同的自適應(yīng)學(xué)習(xí)率;

4、也適用于大多非凸優(yōu)化-適用于大數(shù)據(jù)集和高維空間。

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。 

相關(guān)文章

  • Python3.6 中的pyinstaller安裝和使用教程

    Python3.6 中的pyinstaller安裝和使用教程

    這篇文章主要介紹了Python3.6 中的pyinstaller安裝和使用的教程,本文給大家介紹的非常詳細(xì),對(duì)大家的工作或?qū)W習(xí)具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2020-03-03
  • PyTorch中的參數(shù)類torch.nn.Parameter()詳解

    PyTorch中的參數(shù)類torch.nn.Parameter()詳解

    這篇文章主要給大家介紹了關(guān)于PyTorch中torch.nn.Parameter()的相關(guān)資料,要內(nèi)容包括基礎(chǔ)應(yīng)用、實(shí)用技巧、原理機(jī)制等方面,文章通過(guò)實(shí)例介紹的非常詳細(xì),需要的朋友可以參考下
    2022-02-02
  • Python高效處理大文件的方法詳解

    Python高效處理大文件的方法詳解

    在這篇文章中,我們將學(xué)習(xí)如何使用multiprocessing、joblib和tqdm?Python包減少大文件的處理時(shí)間。這是一個(gè)簡(jiǎn)單的教程,可以適用于任何文件、數(shù)據(jù)庫(kù)、圖像、視頻和音頻,感興趣的可以了解一下
    2022-07-07
  • Python使用HTTP POST上傳WAV文件的方法

    Python使用HTTP POST上傳WAV文件的方法

    Python是一個(gè)非常流行的編程語(yǔ)言,可以用于開發(fā)不同類型的應(yīng)用程序。其中,上傳文件是一個(gè)非常常見的需求。具體而言,我們探討了使用HTTP POST請(qǐng)求上傳單個(gè)和多個(gè)WAV文件的方法。無(wú)論你是需要將音頻文件上傳到云存儲(chǔ)還是服務(wù)器,這些方法都能幫助你上傳文件。
    2023-06-06
  • Python爬蟲基礎(chǔ)之requestes模塊

    Python爬蟲基礎(chǔ)之requestes模塊

    這篇文章主要介紹了Python爬蟲基礎(chǔ)之requestes模塊,文中有非常詳細(xì)的代碼示例,對(duì)正在學(xué)習(xí)python爬蟲的小伙伴們有非常好的幫助,需要的朋友可以參考下
    2021-04-04
  • opencv 獲取rtsp流媒體視頻的實(shí)現(xiàn)方法

    opencv 獲取rtsp流媒體視頻的實(shí)現(xiàn)方法

    這篇文章主要介紹了opencv 獲取rtsp流媒體視頻的實(shí)現(xiàn)方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2019-08-08
  • Jmeter之變量拼接方式

    Jmeter之變量拼接方式

    在Jmeter腳本中,參數(shù)值可以通過(guò)字符串和變量進(jìn)行拼接,也可以使用多個(gè)變量直接拼接,無(wú)需使用連接符,如果使用python腳本,則需要按照python的語(yǔ)法規(guī)則進(jìn)行拼接,在Jmeter中,帶有引號(hào)的變量可以通過(guò)${}來(lái)識(shí)別為變量,而不會(huì)被誤認(rèn)為是字符串
    2024-10-10
  • 詳解用python -m http.server搭一個(gè)簡(jiǎn)易的本地局域網(wǎng)

    詳解用python -m http.server搭一個(gè)簡(jiǎn)易的本地局域網(wǎng)

    這篇文章主要介紹了詳解用python -m http.server搭一個(gè)簡(jiǎn)易的本地局域網(wǎng),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2020-09-09
  • Python比較文件夾比另一同名文件夾多出的文件并復(fù)制出來(lái)的方法

    Python比較文件夾比另一同名文件夾多出的文件并復(fù)制出來(lái)的方法

    這篇文章主要介紹了Python比較文件夾比另一同名文件夾多出的文件并復(fù)制出來(lái)的方法,涉及Python針對(duì)文件與文件夾的操作技巧,具有一定參考借鑒價(jià)值,需要的朋友可以參考下
    2015-03-03
  • Python生成隨機(jī)數(shù)字和字符詳情

    Python生成隨機(jī)數(shù)字和字符詳情

    這篇文章主要介紹了Python生成隨機(jī)數(shù)字和字符詳情,random是python自帶庫(kù),使用前導(dǎo)入import?random即可,更多相關(guān)內(nèi)容需要的朋友可以參考一下
    2022-07-07

最新評(píng)論