欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

PyTorch的Optimizer訓練工具的實現(xiàn)

 更新時間:2019年08月18日 08:48:14   作者:Steven·簡談  
這篇文章主要介紹了PyTorch的Optimizer訓練工具的實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧

torch.optim 是一個實現(xiàn)了各種優(yōu)化算法的庫。大部分常用的方法得到支持,并且接口具備足夠的通用性,使得未來能夠集成更加復雜的方法。

使用 torch.optim,必須構造一個 optimizer 對象。這個對象能保存當前的參數(shù)狀態(tài)并且基于計算梯度更新參數(shù)。

例如:

optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9)
optimizer = optim.Adam([var1, var2], lr = 0.0001)

構造方法

Optimizer 的 __init__ 函數(shù)接收兩個參數(shù):第一個是需要被優(yōu)化的參數(shù),其形式必須是 Tensor 或者 dict;第二個是優(yōu)化選項,包括學習率、衰減率等。

被優(yōu)化的參數(shù)一般是 model.parameters(),當有特殊需求時可以手動寫一個 dict 來作為輸入。

例如:

optim.SGD([
  {'params': model.base.parameters()},
  {'params': model.classifier.parameters(), 'lr': 1e-3}
], lr=1e-2, momentum=0.9)

這樣 model.base 或者說大部分的參數(shù)使用 1e-2 的學習率,而 model.classifier 的參數(shù)使用 1e-3 的學習率,并且 0.9 的 momentum 被用于所有的參數(shù)。

梯度控制

在進行反向傳播之前,必須要用 zero_grad() 清空梯度。具體的方法是遍歷 self.param_groups 中全部參數(shù),根據(jù) grad 屬性做清除。

例如:

for input, target in dataset:
  def closure():
    optimizer.zero_grad()
    output = model(input)
    loss = loss_fn(output, target)
    loss.backward()
    return loss
  optimizer.step(closure)
 

調(diào)整學習率

lr_scheduler 用于在訓練過程中根據(jù)輪次靈活調(diào)控學習率。調(diào)整學習率的方法有很多種,但是其使用方法是大致相同的:用一個 Schedule 把原始 Optimizer 裝飾上,然后再輸入一些相關參數(shù),然后用這個 Schedule 做 step()。

比如以 LambdaLR 舉例:

lambda1 = lambda epoch: epoch // 30
lambda2 = lambda epoch: 0.95 ** epoch
scheduler = LambdaLR(optimizer, lr_lambda=[lambda1, lambda2])
for epoch in range(100):
 train(...)
 validate(...)
 scheduler.step()

上面用了兩種優(yōu)化器

優(yōu)化方法

optim 庫中實現(xiàn)的算法包括 Adadelta、Adagrad、Adam、基于離散張量的 Adam、基于 ∞ \infty∞ 范式的 Adam(Adamax)、Averaged SGD、L-BFGS、RMSProp、resilient BP、基于 Nesterov 的 SGD 算法。

以 SGD 舉例:

optimizer = torch.optim.SGD(model.parameters(), lr=0.1, momentum=0.9)
optimizer.zero_grad()
loss_fn(model(input), target).backward()
optimizer.step()
 

其它方法的使用也一樣:

opt_Adam = torch.optim.Adam(net_Adam.parameters(), lr=0.1, betas=(0.9, 0.99)
opt_RMSprop = torch.optim.RMSprop(net_RMSprop.parameters(), lr=0.1, alpha=0.9)
...
...

以上就是本文的全部內(nèi)容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。

相關文章

  • Python基于Tkinter編寫crc校驗工具

    Python基于Tkinter編寫crc校驗工具

    這篇文章主要介紹了Python基于Tkinter編寫crc校驗工具,本文通過實例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-05-05
  • Python如何截圖保存的三種方法(小結)

    Python如何截圖保存的三種方法(小結)

    這篇文章主要介紹了Python如何截圖保存的三種方法(小結),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2020-09-09
  • 學會迭代器設計模式,幫你大幅提升python性能

    學會迭代器設計模式,幫你大幅提升python性能

    這篇文章主要介紹了python 迭代器設計模式的相關資料,幫助大家更好的理解和使用python,感興趣的朋友可以了解下
    2021-01-01
  • 使用python?scrapy爬取天氣并導出csv文件

    使用python?scrapy爬取天氣并導出csv文件

    由于工作需要,將爬蟲的文件要保存為csv,以前只是保存為json,下面這篇文章主要給大家介紹了關于如何使用python?scrapy爬取天氣并導出csv文件的相關資料,需要的朋友可以參考下
    2022-08-08
  • Python TKinter如何自動關閉主窗口

    Python TKinter如何自動關閉主窗口

    這篇文章主要介紹了Python TKinter如何自動關閉主窗口,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2020-02-02
  • python實現(xiàn)TCP文件接收發(fā)送

    python實現(xiàn)TCP文件接收發(fā)送

    這篇文章主要為大家詳細介紹了python實現(xiàn)TCP文件接收發(fā)送,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2021-09-09
  • python中JSON數(shù)據(jù)格式的詳細使用教程

    python中JSON數(shù)據(jù)格式的詳細使用教程

    這篇文章主要給大家介紹了關于python中JSON數(shù)據(jù)格式的詳細使用,JSON是一種用于存儲和交換數(shù)據(jù)的語法,JSON是文本,使用JavaScript對象表示法編寫,文中通過代碼介紹的非常詳細,需要的朋友可以參考下
    2024-02-02
  • python+appium自動化測試之如何控制App的啟動和退出

    python+appium自動化測試之如何控制App的啟動和退出

    本文主要介紹了python+appium自動化測試之如何控制App的啟動和退出,文中通過示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2022-02-02
  • Python中的tuple元組詳細介紹

    Python中的tuple元組詳細介紹

    這篇文章主要介紹了Python中的tuple元組詳細介紹,本文講解了Tuple 與 list 的相同之處、Tuple 不存在的方法、用 Tuple 的好處、Tuple 與 list 的轉(zhuǎn)換等內(nèi)容,需要的朋友可以參考下
    2015-02-02
  • python基于爬蟲+django,打造個性化API接口

    python基于爬蟲+django,打造個性化API接口

    這篇文章主要介紹了python基于爬蟲+django,打造個性化API接口的方法,幫助大家更好的理解和使用python,感興趣的朋友可以了解下
    2021-01-01

最新評論