欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

PyTorch加載數(shù)據(jù)集梯度下降優(yōu)化

 更新時間:2022年03月09日 17:16:49   作者:心?升明月  
這篇文章主要介紹了PyTorch加載數(shù)據(jù)集梯度下降優(yōu)化,使用DataLoader方法,并繼承DataSet抽象類,可實現(xiàn)對數(shù)據(jù)集進行mini_batch梯度下降優(yōu)化,需要的小伙伴可以參考一下

一、實現(xiàn)過程

1、準備數(shù)據(jù)

PyTorch實現(xiàn)多維度特征輸入的邏輯回歸的方法不同的是:本文使用DataLoader方法,并繼承DataSet抽象類,可實現(xiàn)對數(shù)據(jù)集進行mini_batch梯度下降優(yōu)化。

代碼如下:

import torch
import numpy as np
from torch.utils.data import Dataset,DataLoader

class DiabetesDataSet(Dataset):
? ? def __init__(self, filepath):
? ? ? ? xy = np.loadtxt(filepath,delimiter=',',dtype=np.float32)
? ? ? ? self.len = xy.shape[0]
? ? ? ? self.x_data = torch.from_numpy(xy[:,:-1])
? ? ? ? self.y_data = torch.from_numpy(xy[:,[-1]])
? ? ? ??
? ? def __getitem__(self, index):
? ? ? ? return self.x_data[index],self.y_data[index]
? ??
? ? def __len__(self):
? ? ? ? return self.len

dataset = DiabetesDataSet('G:/datasets/diabetes/diabetes.csv')
train_loader = DataLoader(dataset=dataset,batch_size=32,shuffle=True,num_workers=0)

2、設計模型

class Model(torch.nn.Module):
? ? def __init__(self):
? ? ? ? super(Model,self).__init__()
? ? ? ? self.linear1 = torch.nn.Linear(8,6)
? ? ? ? self.linear2 = torch.nn.Linear(6,4)
? ? ? ? self.linear3 = torch.nn.Linear(4,1)
? ? ? ? self.activate = torch.nn.Sigmoid()
? ??
? ? def forward(self, x):
? ? ? ? x = self.activate(self.linear1(x))
? ? ? ? x = self.activate(self.linear2(x))
? ? ? ? x = self.activate(self.linear3(x))
? ? ? ? return x
model = Model()

3、構造損失函數(shù)和優(yōu)化器

criterion = torch.nn.BCELoss(reduction='mean')
optimizer = torch.optim.SGD(model.parameters(),lr=0.1)

4、訓練過程

每次拿出mini_batch個樣本進行訓練,代碼如下:

epoch_list = []
loss_list = []
for epoch in range(100):
? ? count = 0
? ? loss1 = 0
? ? for i, data in enumerate(train_loader,0):
? ? ? ? # 1.Prepare data
? ? ? ? inputs, labels = data
? ? ? ? # 2.Forward
? ? ? ? y_pred = model(inputs)
? ? ? ? loss = criterion(y_pred,labels)
? ? ? ? print(epoch,i,loss.item())
? ? ? ? count += 1
? ? ? ? loss1 += loss.item()
? ? ? ? # 3.Backward
? ? ? ? optimizer.zero_grad()
? ? ? ? loss.backward()
? ? ? ? # 4.Update
? ? ? ? optimizer.step()
? ? ? ??
? ? epoch_list.append(epoch)
? ? loss_list.append(loss1/count)

5、結果展示

plt.plot(epoch_list,loss_list,'b')
plt.xlabel('epoch')
plt.ylabel('loss')
plt.grid()
plt.show()

二、參考文獻

 到此這篇關于PyTorch加載數(shù)據(jù)集梯度下降優(yōu)化的文章就介紹到這了,更多相關PyTorch加載數(shù)據(jù)集內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • pytorch 實現(xiàn)凍結部分參數(shù)訓練另一部分

    pytorch 實現(xiàn)凍結部分參數(shù)訓練另一部分

    這篇文章主要介紹了pytorch 實現(xiàn)凍結部分參數(shù)訓練另一部分,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2021-03-03
  • python爬蟲之利用selenium模塊自動登錄CSDN

    python爬蟲之利用selenium模塊自動登錄CSDN

    這篇文章主要介紹了python爬蟲之利用selenium模塊自動登錄CSDN,文中有非常詳細的代碼示例,對正在學習python的小伙伴們有很好地幫助,需要的朋友可以參考下
    2021-04-04
  • Python字符串本身作為bytes進行解碼的問題

    Python字符串本身作為bytes進行解碼的問題

    這篇文章主要介紹了解決Python字符串本身作為bytes進行解碼的問題,文末給大家補充介紹了,Python字符串如何轉為bytes對象?Python字符串和bytes類型怎么互轉,需要的朋友可以參考下
    2022-11-11
  • python使用yield壓平嵌套字典的超簡單方法

    python使用yield壓平嵌套字典的超簡單方法

    這篇文章主要給大家介紹了關于python使用yield壓平嵌套字典的超簡單方法,文中通過示例代碼介紹的非常詳細,對大家的學習或者使用python具有一定的參考學習價值,需要的朋友們下面來一起學習學習吧
    2019-11-11
  • Python做文本按行去重的實現(xiàn)方法

    Python做文本按行去重的實現(xiàn)方法

    每行在promotion后面包含一些數(shù)字,如果這些數(shù)字是相同的,則認為是相同的行,對于相同的行,只保留一行。接下來通過本文給大家介紹Python做文本按行去重的實現(xiàn)方法,感興趣的朋友一起看看吧
    2016-10-10
  • 在PyCharm下使用 ipython 交互式編程的方法

    在PyCharm下使用 ipython 交互式編程的方法

    今天小編就為大家分享一篇在PyCharm下使用 ipython 交互式編程的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-01-01
  • Python實現(xiàn)識別圖像中人物的示例代碼

    Python實現(xiàn)識別圖像中人物的示例代碼

    這篇文章主要介紹了通過face_recognition提供的demo代碼,簡單調整了一下,從而實現(xiàn)識別圖像中人物的功能,感興趣的可以跟隨小編一起試試
    2022-01-01
  • python制作英語翻譯小工具代碼實例

    python制作英語翻譯小工具代碼實例

    這篇文章主要介紹了python制作英語翻譯小工具代碼實例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2019-09-09
  • Python3.4實現(xiàn)遠程控制電腦開關機

    Python3.4實現(xiàn)遠程控制電腦開關機

    這篇文章主要為大家詳細介紹了Python3.4實現(xiàn)遠程控制電腦開關機的方法,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2018-02-02
  • Python 求數(shù)組局部最大值的實例

    Python 求數(shù)組局部最大值的實例

    今天小編就為大家分享一篇Python 求數(shù)組局部最大值的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-11-11

最新評論