pytorch實(shí)現(xiàn)多項(xiàng)式回歸
pytorch實(shí)現(xiàn)多項(xiàng)式回歸,供大家參考,具體內(nèi)容如下
一元線性回歸模型雖然能擬合出一條直線,但精度依然欠佳,擬合的直線并不能穿過(guò)每個(gè)點(diǎn),對(duì)于復(fù)雜的擬合任務(wù)需要多項(xiàng)式回歸擬合,提高精度。多項(xiàng)式回歸擬合就是將特征的次數(shù)提高,線性回歸的次數(shù)使一次的,實(shí)際我們可以使用二次、三次、四次甚至更高的次數(shù)進(jìn)行擬合。由于模型的復(fù)雜度增加會(huì)帶來(lái)過(guò)擬合的風(fēng)險(xiǎn),因此需要采取正則化損失的方式減少過(guò)擬合,提高模型泛化能力。希望大家可以自己動(dòng)手,通過(guò)一些小的訓(xùn)練掌握pytorch(案例中有些觀察數(shù)據(jù)格式的代碼,大家可以自己注釋掉)
# 相較于一元線性回歸模型,多項(xiàng)式回歸可以很好的提高擬合精度,但要注意過(guò)擬合風(fēng)險(xiǎn) # 多項(xiàng)式回歸方程 f(x) = -1.13x-2.14x^2+3.12x^3-0.01x^4+0.512 import torch import matplotlib.pyplot as plt import numpy as np # 數(shù)據(jù)準(zhǔn)備(測(cè)試數(shù)據(jù)) x = torch.linspace(-2,2,50) print(x.shape) y = -1.13*x - 2.14*torch.pow(x,2) + 3.15*torch.pow(x,3) - 0.01*torch.pow(x,4) + 0.512 plt.scatter(x.data.numpy(),y.data.numpy()) plt.show() # 此時(shí)輸入維度為4維 # 為了拼接輸入數(shù)據(jù),需要編寫輔助數(shù)據(jù),輸入標(biāo)量x,使其變?yōu)榫仃嚕褂胻orch.cat拼接 def features(x): # 生成矩陣 # [x,x^2,x^3,x^4] x = x.unsqueeze(1) print(x.shape) return torch.cat([x ** i for i in range(1,5)], 1) result = features(x) print(result.shape) # 目標(biāo)公式用于計(jì)算輸入特征對(duì)應(yīng)的標(biāo)準(zhǔn)輸出 # 目標(biāo)公式的權(quán)重如下 x_weight = torch.Tensor([-1.13,-2.14,3.15,-0.01]).unsqueeze(1) b = torch.Tensor([0.512]) # 得到x數(shù)據(jù)對(duì)應(yīng)的標(biāo)準(zhǔn)輸出 def target(x): return x.mm(x_weight) + b.item() # 新建一個(gè)隨機(jī)生成輸入數(shù)據(jù)和輸出數(shù)據(jù)的函數(shù),用于生成訓(xùn)練數(shù)據(jù) def get_batch_data(batch_size): # 生成batch_size個(gè)隨機(jī)的x batch_x = torch.randn(batch_size) # 對(duì)于每個(gè)x要生成一個(gè)矩陣 features_x = features(batch_x) target_y = target(features_x) return features_x,target_y # 創(chuàng)建模型 class PolynomialRegression(torch.nn.Module): def __init__(self): super(PolynomialRegression, self).__init__() # 輸入四維度 輸出一維度 self.poly = torch.nn.Linear(4,1) def forward(self, x): return self.poly(x) # 開始訓(xùn)練模型 epochs = 10000 batch_size = 32 model = PolynomialRegression() criterion = torch.nn.MSELoss() optimizer = torch.optim.SGD(model.parameters(),0.001) for epoch in range(epochs): print("{}/{}".format(epoch+1,epochs)) batch_x,batch_y = get_batch_data(batch_size) out = model(batch_x) loss = criterion(out,batch_y) optimizer.zero_grad() loss.backward() # 更新梯度 optimizer.step() if (epoch % 100 == 0): print("Epoch:[{}/{}],loss:{:.6f}".format(epoch,epochs,loss.item())) if (epoch % 1000 == 0): predict = model(features(x)) print(x.shape) print(predict.shape) print(predict.squeeze(1).shape) plt.plot(x.data.numpy(),predict.squeeze(1).data.numpy(),"r") loss = criterion(predict,y) plt.title("Loss:{:.4f}".format(loss.item())) plt.xlabel("X") plt.ylabel("Y") plt.scatter(x,y) plt.show()
擬合結(jié)果:
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Windows和Linux下Python輸出彩色文字的方法教程
這篇文章主要介紹了在Windows和Linux中Python輸出彩色文字的方法,通過(guò)設(shè)置彩色文字給大家更醒目的效果,文中給出了詳細(xì)的介紹和示例代碼,需要的朋友可以參考借鑒,下面來(lái)一起看看吧。2017-05-05python suds訪問(wèn)webservice服務(wù)實(shí)現(xiàn)
這篇文章主要介紹了python suds訪問(wèn)webservice服務(wù)實(shí)現(xiàn),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-06-06Python+OpenCV實(shí)現(xiàn)鼠標(biāo)畫瞄準(zhǔn)星的方法詳解
所謂瞄準(zhǔn)星指的是一個(gè)圓圈加一個(gè)圓圈內(nèi)的十字線,就像玩射擊游戲狙擊槍開鏡的樣子一樣。本文將利用Python+OpenCV實(shí)現(xiàn)鼠標(biāo)畫瞄準(zhǔn)星,感興趣的可以嘗試一下2022-08-08jupyter?notebook?中使用ipython?魔法指令的詳細(xì)過(guò)程
在?Jupyter?Notebook?中,IPython?魔法指令為數(shù)據(jù)分析和探索提供了很多便利,這篇文章主要介紹了jupyter?notebook?中使用ipython?魔法指令的詳細(xì)過(guò)程,需要的朋友可以參考下2024-06-06Python中Parsel的兩種數(shù)據(jù)提取方式詳解
在網(wǎng)絡(luò)爬蟲的世界中,數(shù)據(jù)提取是至關(guān)重要的一環(huán),Python 提供了許多強(qiáng)大的工具,其中之一就是 parsel 庫(kù),下面我們就來(lái)深入學(xué)習(xí)一下Parsel的兩種數(shù)據(jù)提取方式吧2023-12-12Django+Bootstrap實(shí)現(xiàn)計(jì)算器的示例代碼
本文主要介紹了Django+Bootstrap實(shí)現(xiàn)計(jì)算器的示例代碼,文中通過(guò)示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2021-11-11基于PyQt5自制簡(jiǎn)單的文件內(nèi)容檢索小工具
這篇文章主要為大家詳細(xì)介紹了如何基于PyQt5自制一個(gè)簡(jiǎn)單的文件內(nèi)容檢索小工具,文中的示例代碼講解詳細(xì),感興趣的小伙伴可以跟隨小編一起學(xué)習(xí)一下2023-05-05