python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)利用PyTorch進(jìn)行回歸運(yùn)算
學(xué)習(xí)前言
我發(fā)現(xiàn)不僅有很多的Keras模型,還有很多的PyTorch模型,還是學(xué)學(xué)Pytorch吧,我也想了解以下tensor到底是個啥。
PyTorch中的重要基礎(chǔ)函數(shù)
1、class Net(torch.nn.Module)神經(jīng)網(wǎng)絡(luò)的構(gòu)建:
PyTorch中神經(jīng)網(wǎng)絡(luò)的構(gòu)建和Tensorflow的不一樣,它需要用一個類來進(jìn)行構(gòu)建(后面還可以用與Keras類似的Sequential模型構(gòu)建),當(dāng)然基礎(chǔ)還是用類構(gòu)建,這個類需要繼承PyTorch中的神經(jīng)網(wǎng)絡(luò)模型,torch.nn.Module,具體構(gòu)建方式如下:
# 繼承torch.nn.Module模型 class Net(torch.nn.Module): # 重載初始化函數(shù)(我忘了這個是不是叫重載) def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() # Applies a linear transformation to the incoming data: :math:y = xA^T + b # 全連接層,公式為y = xA^T + b # 在初始化的同時構(gòu)建兩個全連接層(也就是一個隱含層) self.hidden = torch.nn.Linear(n_feature, n_hidden) self.predict = torch.nn.Linear(n_hidden, n_output) # forward函數(shù)用于構(gòu)建前向傳遞的過程 def forward(self, x): # 隱含層的輸出 hidden_layer = functional.relu(self.hidden(x)) # 實(shí)際的輸出 output_layer = self.predict(hidden_layer) return output_layer
該部分構(gòu)建了一個含有一層隱含層的神經(jīng)網(wǎng)絡(luò),隱含層神經(jīng)元個數(shù)為n_hidden。
在建立了上述的類后,就可以通過如下函數(shù)建立神經(jīng)網(wǎng)絡(luò):
net = Net(n_feature=1, n_hidden=10, n_output=1)
2、optimizer優(yōu)化器
optimizer用于構(gòu)建模型的優(yōu)化器,與tensorflow中優(yōu)化器的意義相同,PyTorch的優(yōu)化器在前綴為torch.optim的庫中。
優(yōu)化器需要傳入net網(wǎng)絡(luò)的參數(shù)。
具體使用方式如下:
# torch.optim是優(yōu)化器模塊 # Adam可以改成其它優(yōu)化器,如SGD、RMSprop等 optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
3、loss損失函數(shù)定義
loss用于定義神經(jīng)網(wǎng)絡(luò)訓(xùn)練的損失函數(shù),常用的損失函數(shù)是均方差損失函數(shù)(回歸)和交叉熵?fù)p失函數(shù)(分類)。
具體使用方式如下:
# 均方差lossloss_func = torch.nn.MSELoss()
4、訓(xùn)練過程
訓(xùn)練過程分為三個步驟:
1、利用網(wǎng)絡(luò)預(yù)測結(jié)果。
prediction = net(x)
2、利用預(yù)測的結(jié)果與真實(shí)值對比生成loss。
loss = loss_func(prediction, y)
3、進(jìn)行反向傳遞(該部分有三步)。
# 均方差loss # 反向傳遞步驟 # 1、初始化梯度 optimizer.zero_grad() # 2、計算梯度 loss.backward() # 3、進(jìn)行optimizer優(yōu)化 optimizer.step()
全部代碼
這是一個簡單的回歸預(yù)測模型。
import torch from torch.autograd import Variable import torch.nn.functional as functional import matplotlib.pyplot as plt import numpy as np # x的shape為(100,1) x = torch.from_numpy(np.linspace(-1,1,100).reshape([100,1])).type(torch.FloatTensor) # y的shape為(100,1) y = torch.sin(x) + 0.2*torch.rand(x.size()) class Net(torch.nn.Module): def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() # Applies a linear transformation to the incoming data: :math:y = xA^T + b # 全連接層,公式為y = xA^T + b self.hidden = torch.nn.Linear(n_feature, n_hidden) self.predict = torch.nn.Linear(n_hidden, n_output) def forward(self, x): # 隱含層的輸出 hidden_layer = functional.relu(self.hidden(x)) output_layer = self.predict(hidden_layer) return output_layer # 類的建立 net = Net(n_feature=1, n_hidden=10, n_output=1) # torch.optim是優(yōu)化器模塊 optimizer = torch.optim.Adam(net.parameters(), lr=1e-3) # 均方差loss loss_func = torch.nn.MSELoss() for t in range(1000): prediction = net(x) loss = loss_func(prediction, y) # 反向傳遞步驟 # 1、初始化梯度 optimizer.zero_grad() # 2、計算梯度 loss.backward() # 3、進(jìn)行optimizer優(yōu)化 optimizer.step() if t & 50 == 0: print("The loss is",loss.data.numpy())
運(yùn)行結(jié)果為:
The loss is 0.27913737
The loss is 0.2773982
The loss is 0.27224126
…………
The loss is 0.0035993527
The loss is 0.0035974088
The loss is 0.0035967692
以上就是python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)利用PyTorch進(jìn)行回歸運(yùn)算的詳細(xì)內(nèi)容,更多關(guān)于python神經(jīng)網(wǎng)絡(luò)PyTorch回歸運(yùn)算的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
以tensorflow庫為例講解Pycharm中如何更新第三方庫
這篇文章主要介紹了以tensorflow庫為例講解Pycharm中如何更新第三方庫,文章介紹有詳細(xì)流程,需要的小伙伴可以參考一下,希望對你的學(xué)習(xí)工作有所幫助2022-03-03關(guān)于pyinstaller生成.exe程序報錯:缺少.ini文件的分析
這篇文章主要介紹了關(guān)于pyinstaller生成.exe程序報錯:缺少.ini文件的分析,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2022-02-02Django REST framework內(nèi)置路由用法
這篇文章主要介紹了Django REST framework內(nèi)置路由用法,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2019-07-07關(guān)于pygame.surface.blit()方法4個參數(shù)的使用
這篇文章主要介紹了關(guān)于pygame.surface.blit()方法4個參數(shù)的使用方式,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-03-03