欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)利用PyTorch進(jìn)行回歸運(yùn)算

 更新時間:2022年05月04日 10:31:04   作者:Bubbliiiing  
這篇文章主要為大家介紹了python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)利用PyTorch進(jìn)行回歸運(yùn)算的實(shí)現(xiàn)代碼,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪

學(xué)習(xí)前言

我發(fā)現(xiàn)不僅有很多的Keras模型,還有很多的PyTorch模型,還是學(xué)學(xué)Pytorch吧,我也想了解以下tensor到底是個啥。

PyTorch中的重要基礎(chǔ)函數(shù)

1、class Net(torch.nn.Module)神經(jīng)網(wǎng)絡(luò)的構(gòu)建:

PyTorch中神經(jīng)網(wǎng)絡(luò)的構(gòu)建和Tensorflow的不一樣,它需要用一個類來進(jìn)行構(gòu)建(后面還可以用與Keras類似的Sequential模型構(gòu)建),當(dāng)然基礎(chǔ)還是用類構(gòu)建,這個類需要繼承PyTorch中的神經(jīng)網(wǎng)絡(luò)模型,torch.nn.Module,具體構(gòu)建方式如下:

# 繼承torch.nn.Module模型
class Net(torch.nn.Module):
	# 重載初始化函數(shù)(我忘了這個是不是叫重載)
    def __init__(self, n_feature, n_hidden, n_output):
        super(Net, self).__init__()
        # Applies a linear transformation to the incoming data: :math:y = xA^T + b
        # 全連接層,公式為y = xA^T + b
        # 在初始化的同時構(gòu)建兩個全連接層(也就是一個隱含層)
        self.hidden = torch.nn.Linear(n_feature, n_hidden)
        self.predict = torch.nn.Linear(n_hidden, n_output)
	# forward函數(shù)用于構(gòu)建前向傳遞的過程
    def forward(self, x):
        # 隱含層的輸出
        hidden_layer = functional.relu(self.hidden(x))
        # 實(shí)際的輸出
        output_layer = self.predict(hidden_layer)
        return output_layer

該部分構(gòu)建了一個含有一層隱含層的神經(jīng)網(wǎng)絡(luò),隱含層神經(jīng)元個數(shù)為n_hidden。
在建立了上述的類后,就可以通過如下函數(shù)建立神經(jīng)網(wǎng)絡(luò):

net = Net(n_feature=1, n_hidden=10, n_output=1)

2、optimizer優(yōu)化器

optimizer用于構(gòu)建模型的優(yōu)化器,與tensorflow中優(yōu)化器的意義相同,PyTorch的優(yōu)化器在前綴為torch.optim的庫中。

優(yōu)化器需要傳入net網(wǎng)絡(luò)的參數(shù)。

具體使用方式如下:

# torch.optim是優(yōu)化器模塊
# Adam可以改成其它優(yōu)化器,如SGD、RMSprop等
optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)

3、loss損失函數(shù)定義

loss用于定義神經(jīng)網(wǎng)絡(luò)訓(xùn)練的損失函數(shù),常用的損失函數(shù)是均方差損失函數(shù)(回歸)和交叉熵?fù)p失函數(shù)(分類)。

具體使用方式如下:

# 均方差lossloss_func = torch.nn.MSELoss() 

4、訓(xùn)練過程

訓(xùn)練過程分為三個步驟:

1、利用網(wǎng)絡(luò)預(yù)測結(jié)果。

prediction = net(x)

2、利用預(yù)測的結(jié)果與真實(shí)值對比生成loss。

loss = loss_func(prediction, y)

3、進(jìn)行反向傳遞(該部分有三步)。

# 均方差loss
# 反向傳遞步驟
# 1、初始化梯度
optimizer.zero_grad()
# 2、計算梯度
loss.backward()
# 3、進(jìn)行optimizer優(yōu)化
optimizer.step()

全部代碼

這是一個簡單的回歸預(yù)測模型。

import torch
from torch.autograd import Variable
import torch.nn.functional as functional
import matplotlib.pyplot as plt
import numpy as np
# x的shape為(100,1)
x = torch.from_numpy(np.linspace(-1,1,100).reshape([100,1])).type(torch.FloatTensor)
# y的shape為(100,1)
y = torch.sin(x) + 0.2*torch.rand(x.size())
class Net(torch.nn.Module):
    def __init__(self, n_feature, n_hidden, n_output):
        super(Net, self).__init__()
        # Applies a linear transformation to the incoming data: :math:y = xA^T + b
        # 全連接層,公式為y = xA^T + b
        self.hidden = torch.nn.Linear(n_feature, n_hidden)
        self.predict = torch.nn.Linear(n_hidden, n_output)
    def forward(self, x):
        # 隱含層的輸出
        hidden_layer = functional.relu(self.hidden(x))
        output_layer = self.predict(hidden_layer)
        return output_layer
# 類的建立
net = Net(n_feature=1, n_hidden=10, n_output=1)
# torch.optim是優(yōu)化器模塊
optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
# 均方差loss
loss_func = torch.nn.MSELoss() 
for t in range(1000):
    prediction = net(x)
    loss = loss_func(prediction, y)
    # 反向傳遞步驟
    # 1、初始化梯度
    optimizer.zero_grad()
    # 2、計算梯度
    loss.backward()
    # 3、進(jìn)行optimizer優(yōu)化
    optimizer.step()
    if t & 50 == 0:
        print("The loss is",loss.data.numpy())

運(yùn)行結(jié)果為:

The loss is 0.27913737
The loss is 0.2773982
The loss is 0.27224126
…………
The loss is 0.0035993527
The loss is 0.0035974088
The loss is 0.0035967692

以上就是python神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)利用PyTorch進(jìn)行回歸運(yùn)算的詳細(xì)內(nèi)容,更多關(guān)于python神經(jīng)網(wǎng)絡(luò)PyTorch回歸運(yùn)算的資料請關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • 以tensorflow庫為例講解Pycharm中如何更新第三方庫

    以tensorflow庫為例講解Pycharm中如何更新第三方庫

    這篇文章主要介紹了以tensorflow庫為例講解Pycharm中如何更新第三方庫,文章介紹有詳細(xì)流程,需要的小伙伴可以參考一下,希望對你的學(xué)習(xí)工作有所幫助
    2022-03-03
  • 使用PyCharm安裝pytest及requests的問題

    使用PyCharm安裝pytest及requests的問題

    這篇文章主要介紹了使用PyCharm安裝pytest及requests的相關(guān)資料,本文通過圖文并茂的形式給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-07-07
  • 關(guān)于pyinstaller生成.exe程序報錯:缺少.ini文件的分析

    關(guān)于pyinstaller生成.exe程序報錯:缺少.ini文件的分析

    這篇文章主要介紹了關(guān)于pyinstaller生成.exe程序報錯:缺少.ini文件的分析,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2022-02-02
  • 淺析python 字典嵌套

    淺析python 字典嵌套

    這篇文章主要介紹了python 字典嵌套的相關(guān)資料,幫助大家更好的理解和學(xué)習(xí)python,感興趣的朋友可以了解下
    2020-09-09
  • Django REST framework內(nèi)置路由用法

    Django REST framework內(nèi)置路由用法

    這篇文章主要介紹了Django REST framework內(nèi)置路由用法,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2019-07-07
  • Python中處理JSON文件的超詳細(xì)指南

    Python中處理JSON文件的超詳細(xì)指南

    這篇文章主要給大家介紹了關(guān)于Python中處理JSON文件的超詳細(xì)指南,json模塊是python內(nèi)置的庫,不需要額外安裝就可以導(dǎo)入運(yùn)行,json模塊的主要功能是將序列化數(shù)據(jù)從文件里讀取出來或者存入文件,需要的朋友可以參考下
    2024-05-05
  • python實(shí)現(xiàn)蒙特卡羅方法教程

    python實(shí)現(xiàn)蒙特卡羅方法教程

    在本篇文章里小編給大家分享了關(guān)于python實(shí)現(xiàn)蒙特卡羅方法和知識點(diǎn),有需要的朋友們學(xué)習(xí)下。
    2019-01-01
  • Python中列表list常用方法總結(jié)

    Python中列表list常用方法總結(jié)

    在?Python?中,列表(List)是一種有序的數(shù)據(jù)集合,可以存儲任意類型的數(shù)據(jù)。本文主要幫大家總結(jié)了一下列表list的常用方法,需要的可以參考一下
    2023-05-05
  • 關(guān)于pygame.surface.blit()方法4個參數(shù)的使用

    關(guān)于pygame.surface.blit()方法4個參數(shù)的使用

    這篇文章主要介紹了關(guān)于pygame.surface.blit()方法4個參數(shù)的使用方式,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2024-03-03
  • python Pexpect模塊的使用

    python Pexpect模塊的使用

    這篇文章主要介紹了python Pexpect模塊的使用,幫助大家更好的理解和使用python,感興趣的朋友可以了解下
    2020-12-12

最新評論