Pytorch .pth權(quán)重文件的使用解析
pytorch最后的權(quán)重文件是.pth格式的。
經(jīng)常遇到的問題:
進(jìn)行finutune時,改配置文件中的學(xué)習(xí)率,發(fā)現(xiàn)程序跑起來后竟然保持了以前的學(xué)習(xí)率, 并沒有使用新的學(xué)習(xí)率。
原因:
首先查看.pth文件中的內(nèi)容,我們發(fā)現(xiàn)它其實是一個字典格式的文件

其中保存了optimizer和scheduler,所以再次加載此文件時會使用之前的學(xué)習(xí)率。
我們只需要權(quán)重,也就是model部分,將其導(dǎo)出就可以了
import torch
original = torch.load('path/to/your/checkpoint.pth')
new = {"model": original["model"]}
torch.save(new, 'path/to/new/checkpoint.pth')
以上這篇Pytorch .pth權(quán)重文件的使用解析就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
Pandas之?dāng)?shù)據(jù)追加df.append方式
這篇文章主要介紹了Pandas之?dāng)?shù)據(jù)追加df.append方式,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2023-08-08
pycharm 使用心得(五)斷點(diǎn)調(diào)試
PyCharm 作為IDE,斷點(diǎn)調(diào)試是必須有的功能。否則,我們還真不如用純編輯器寫的快。2014-06-06
python中requests爬去網(wǎng)頁內(nèi)容出現(xiàn)亂碼問題解決方法介紹
這篇文章主要介紹了python中requests爬去網(wǎng)頁內(nèi)容出現(xiàn)亂碼問題解決方法,2017-10-10

