pytorch實現(xiàn)線性回歸
更新時間:2021年04月09日 14:35:06 作者:逝去〃年華
這篇文章主要為大家詳細介紹了pytorch實現(xiàn)線性回歸,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
pytorch實現(xiàn)線性回歸代碼練習實例,供大家參考,具體內容如下
歡迎大家指正,希望可以通過小的練習提升對于pytorch的掌握
# 隨機初始化一個二維數(shù)據(jù)集,使用朋友torch訓練一個回歸模型 import numpy as np import random import matplotlib.pyplot as plt x = np.arange(20) y = np.array([5*x[i] + random.randint(1,20) for i in range(len(x))]) # random.randint(參數(shù)1,參數(shù)2)函數(shù)返回參數(shù)1和參數(shù)2之間的任意整數(shù) print('-'*50) # 打印數(shù)據(jù)集 print(x) print(y) import torch x_train = torch.from_numpy(x).float() y_train = torch.from_numpy(y).float() # model class LinearRegression(torch.nn.Module): def __init__(self): super(LinearRegression, self).__init__() # 輸入與輸出都是一維的 self.linear = torch.nn.Linear(1,1) def forward(self,x): return self.linear(x) # 新建模型,誤差函數(shù),優(yōu)化器 model = LinearRegression() criterion = torch.nn.MSELoss() optimizer = torch.optim.SGD(model.parameters(),0.001) # 開始訓練 num_epoch = 20 for i in range(num_epoch): input_data = x_train.unsqueeze(1) target = y_train.unsqueeze(1) # unsqueeze(1)在第二維增加一個維度 out = model(input_data) loss = criterion(out,target) optimizer.zero_grad() loss.backward() optimizer.step() print("Eopch:[{}/{},loss:[{:.4f}]".format(i+1,num_epoch,loss.item())) if ((i+1)%2 == 0): predict = model(input_data) plt.plot(x_train.data.numpy(),predict.squeeze(1).data.numpy(),"r") loss = criterion(predict,target) plt.title("Loss:{:.4f}".format(loss.item())) plt.xlabel("X") plt.ylabel("Y") plt.scatter(x_train,y_train) plt.show()
實驗結果:
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關文章
pytorch中Transformer進行中英文翻譯訓練的實現(xiàn)
本文主要介紹了pytorch中Transformer進行中英文翻譯訓練的實現(xiàn),詳細闡述了使用PyTorch實現(xiàn)Transformer模型的代碼實現(xiàn)和訓練過程,具有一定參考價值,感興趣的可以了解一下2023-08-08Pandas排序和分組排名(sort和rank)的實現(xiàn)
Pandas是Python中廣泛使用的數(shù)據(jù)處理庫,提供了豐富的功能來處理和分析數(shù)據(jù),本文主要介紹了Pandas排序和分組排名(sort和rank)的實現(xiàn),具有一定的參考價值,感興趣的可以了解一下2024-07-07