欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

基于python介紹pytorch保存和恢復參數(shù)

 更新時間:2022年03月16日 08:27:51   作者:Hydrion-Qlz  
這篇文章主要介紹了基于python介紹pytorch保存和恢復參數(shù),為了恢復模型,我們需要用代碼生成框架,然后從磁盤加載參數(shù),下面具體的相關(guān)介紹,需要的小伙伴可以參考一下

一、讀寫文件

1.加載和保存張量

import torch
from torch import nn
from torch.nn import functional as F
import os

path = os.path.join(os.getcwd(), "")

x = torch.arange(4)
torch.save(x, path + "x-file")

現(xiàn)在我們可以將存儲在文件中的數(shù)據(jù)讀回內(nèi)存

x2 = torch.load(path + "x-file")
x2
tensor([0, 1, 2, 3])

我們可以存儲一個張量列表,然后把他們讀回內(nèi)存

y = torch.zeros(4)
torch.save([x, y], path + 'x-file')
x2, y2 = torch.load(path + 'x-file')
(x2, y2)
(tensor([0, 1, 2, 3]), tensor([0., 0., 0., 0.]))

我們甚至可以寫入或讀取從字符串映射到張量的字典。當我們要讀取或?qū)懭肽P椭械乃袡?quán)重時,這很方便

mydict = {'x': x, 'y': y}
torch.save(mydict, path + 'mydict')
mydict2 = torch.load('mydict')
mydict2
{'x': tensor([0, 1, 2, 3]), 'y': tensor([0., 0., 0., 0.])}

2.加載和保存模型

保存單個權(quán)重向量確實有用,但是如果我們想保存整個模型,并在之后加載他們,單獨保存每個向量則會變得很麻煩。畢竟,我們可能有數(shù)百個參數(shù)分布在各處。深度學習框架提供了內(nèi)置函數(shù)來保存和加載整個網(wǎng)絡(luò)。需要注意的細節(jié)是,這里的保存模型并不是保存整個模型,而只是保存了其中的所有參數(shù)。
為了恢復模型,我們需要用代碼生成框架,然后從磁盤加載參數(shù)。

net = MLP()
X = torch.randn(size=(2, 20))
Y = net(X)

我們將模型的參數(shù)存儲在一個叫做“mlp.params”的文件中

torch.save(net.state_dict(), 'mlp.params')

為了恢復模型,我們實例化了原始多層感知機模型的一個備份。這里我們不需要隨機初始化模型參數(shù),而是直接讀取文件中的參數(shù)

clone = MLP()
clone.load_state_dict(torch.load('mlp.params'))
clone.eval()
MLP(
? (hidden): Linear(in_features=20, out_features=256, bias=True)
? (out): Linear(in_features=256, out_features=10, bias=True)
)

由于兩個實例具有相同的模型參數(shù),在輸入相同的X時,兩個實例的計算結(jié)果應(yīng)該相同

Y_clone = clone(X)
Y_clone == Y
tensor([[True, True, True, True, True, True, True, True, True, True],
? ? ? ? [True, True, True, True, True, True, True, True, True, True]])

到此這篇關(guān)于基于python介紹pytorch保存和恢復參數(shù)的文章就介紹到這了,更多相關(guān)pytorch保存和恢復參數(shù)內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

最新評論