欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

人工智能-Python實(shí)現(xiàn)多項(xiàng)式回歸

 更新時(shí)間:2022年01月26日 15:11:11   作者:是夢(mèng)吧,是你吧!  
這篇文章主要介紹了人工智能-Python實(shí)現(xiàn)多項(xiàng)式回歸,上一次我們講解了線性回歸,這次我們重點(diǎn)分析多項(xiàng)式回歸,需要的小伙伴可以參考一下

1、概述

1.1 有監(jiān)督學(xué)習(xí)

1.2 多項(xiàng)式回歸

上一次我們講解了線性回歸,這次我們重點(diǎn)分析多項(xiàng)式回歸。

多項(xiàng)式回歸(Polynomial Regression) 是研究一個(gè)因變量與一 個(gè)或多個(gè)自變量間多項(xiàng)式的回歸分析方法。如果自變量只有一個(gè) 時(shí),稱為一元多項(xiàng)式回歸;如果自變量有多個(gè)時(shí),稱為多元多項(xiàng) 式回歸。 

(1)在一元回歸分析中,如果依變量 y 與自變量 x 的關(guān)系為非線性的,但 是又找不到適當(dāng)?shù)暮瘮?shù)曲線來(lái)擬合,則可以采用一元多項(xiàng)式回歸。
(2)多項(xiàng)式回歸的最大優(yōu)點(diǎn)就是可以通過(guò)增加 x 的高次項(xiàng)對(duì)實(shí)測(cè)點(diǎn)進(jìn)行逼 近,直至滿意為止。
(3)事實(shí)上,多項(xiàng)式回歸可以處理相當(dāng)一類非線性問(wèn)題,它在回歸分析 中占有重要的地位,因?yàn)槿我缓瘮?shù)都可以分段用多項(xiàng)式來(lái)逼近。

2 概念

之前提到的線性回歸實(shí)例中,是運(yùn)用直線來(lái)擬合數(shù)據(jù)輸入與輸出之間的線性關(guān)系。不同于線性回歸, 多項(xiàng)式回歸是使用曲線擬合數(shù)據(jù)的輸入與輸出的映射關(guān)系 。

3 案例實(shí)現(xiàn)——方法1 

3.1 案例分析

應(yīng)用背景:我們?cè)谇懊嬉呀?jīng)根據(jù)已知的房屋成交價(jià)和房屋的尺寸進(jìn)行了線性回歸,繼而可以對(duì)已知房屋尺寸,而未知房屋成交價(jià)格的實(shí)例進(jìn)行了成交價(jià)格的預(yù)測(cè),但是在實(shí)際的應(yīng)用中這樣的擬合往往不夠好,因此我們?cè)诖藢?duì)該數(shù)據(jù)集進(jìn)行多項(xiàng)式回歸。
目標(biāo):對(duì)房屋成交信息建立多項(xiàng)式回歸方程,并依據(jù)回歸方程對(duì)房屋價(jià)格進(jìn)行預(yù)測(cè)。

成交信息包括房屋的面積以及對(duì)應(yīng)的成交價(jià)格:

  • (1)房屋面積單位為平方英尺( ft 2 )
  • (2)房屋成交價(jià)格單位為萬(wàn)

3.2 代碼實(shí)現(xiàn) 

import matplotlib.pyplot as plt
import numpy as np
from sklearn import linear_model
from sklearn.preprocessing import PolynomialFeatures
?
?
# 讀取數(shù)據(jù)集
datasets_X = []
datasets_Y = []
fr = open('多項(xiàng)式線性回歸.csv','r')
lines = fr.readlines()
for line in lines:
? ? items = line.strip().split(',')
? ? datasets_X.append(int(items[0]))
? ? datasets_Y.append(int(items[1]))
?
length = len(datasets_X)
datasets_X = np.array(datasets_X).reshape([length,1])
datasets_Y = np.array(datasets_Y)
?
minX = min(datasets_X)
maxX = max(datasets_X)
X = np.arange(minX,maxX).reshape([-1,1])
?
?
poly_reg = PolynomialFeatures(degree = 2) ? ? ?#degree=2表示建立datasets_X的二次多項(xiàng)式特征X_poly。
X_poly = poly_reg.fit_transform(datasets_X) ? ?#使用PolynomialFeatures構(gòu)造x的二次多項(xiàng)式X_poly
lin_reg_2 = linear_model.LinearRegression()
lin_reg_2.fit(X_poly, datasets_Y) ? ? ? ? ? #然后創(chuàng)建線性回歸,使用線性模型(linear_model)學(xué)習(xí)X_poly和y之間的映射關(guān)系
?
print(X_poly)
print(lin_reg_2.predict(poly_reg.fit_transform(X)))
print('Coefficients:', lin_reg_2.coef_) ? ? ?#查看回歸方程系數(shù)(k)
print('intercept:', lin_reg_2.intercept_) ? ?##查看回歸方程截距(b)
print('the model is y={0}+({1}*x)+({2}*x^2)'.format(lin_reg_2.intercept_,lin_reg_2.coef_[0],lin_reg_2.coef_[1]))
# 圖像中顯示
plt.scatter(datasets_X, datasets_Y, color = 'red') ?#scatter函數(shù)用于繪制數(shù)據(jù)點(diǎn),這里表示用紅色繪制數(shù)據(jù)點(diǎn);
#plot函數(shù)用來(lái)繪制回歸線,同樣這里需要先將X處理成多項(xiàng)式特征;
plt.plot(X, lin_reg_2.predict(poly_reg.fit_transform(X)), color = 'blue')
plt.xlabel('Area')
plt.ylabel('Price')
plt.show()

3.3 結(jié)果 

[[1.0000000e+00 1.0000000e+03 1.0000000e+06]
 [1.0000000e+00 7.9200000e+02 6.2726400e+05]
 [1.0000000e+00 1.2600000e+03 1.5876000e+06]
 [1.0000000e+00 1.2620000e+03 1.5926440e+06]
 [1.0000000e+00 1.2400000e+03 1.5376000e+06]
 [1.0000000e+00 1.1700000e+03 1.3689000e+06]
 [1.0000000e+00 1.2300000e+03 1.5129000e+06]
 [1.0000000e+00 1.2550000e+03 1.5750250e+06]
 [1.0000000e+00 1.1940000e+03 1.4256360e+06]
 [1.0000000e+00 1.4500000e+03 2.1025000e+06]
 [1.0000000e+00 1.4810000e+03 2.1933610e+06]
 [1.0000000e+00 1.4750000e+03 2.1756250e+06]
 [1.0000000e+00 1.4820000e+03 2.1963240e+06]
 [1.0000000e+00 1.4840000e+03 2.2022560e+06]
 [1.0000000e+00 1.5120000e+03 2.2861440e+06]
 [1.0000000e+00 1.6800000e+03 2.8224000e+06]
 [1.0000000e+00 1.6200000e+03 2.6244000e+06]
 [1.0000000e+00 1.7200000e+03 2.9584000e+06]
 [1.0000000e+00 1.8000000e+03 3.2400000e+06]
 [1.0000000e+00 4.4000000e+03 1.9360000e+07]
 [1.0000000e+00 4.2120000e+03 1.7740944e+07]
 [1.0000000e+00 3.9200000e+03 1.5366400e+07]
 [1.0000000e+00 3.2120000e+03 1.0316944e+07]
 [1.0000000e+00 3.1510000e+03 9.9288010e+06]
 [1.0000000e+00 3.1000000e+03 9.6100000e+06]
 [1.0000000e+00 2.7000000e+03 7.2900000e+06]
 [1.0000000e+00 2.6120000e+03 6.8225440e+06]
 [1.0000000e+00 2.7050000e+03 7.3170250e+06]
 [1.0000000e+00 2.5700000e+03 6.6049000e+06]
 [1.0000000e+00 2.4420000e+03 5.9633640e+06]
 [1.0000000e+00 2.3870000e+03 5.6977690e+06]
 [1.0000000e+00 2.2920000e+03 5.2532640e+06]
 [1.0000000e+00 2.3080000e+03 5.3268640e+06]
 [1.0000000e+00 2.2520000e+03 5.0715040e+06]
 [1.0000000e+00 2.2020000e+03 4.8488040e+06]
 [1.0000000e+00 2.1570000e+03 4.6526490e+06]
 [1.0000000e+00 2.1400000e+03 4.5796000e+06]
 [1.0000000e+00 4.0000000e+03 1.6000000e+07]
 [1.0000000e+00 4.2000000e+03 1.7640000e+07]
 [1.0000000e+00 3.9000000e+03 1.5210000e+07]
 [1.0000000e+00 3.5440000e+03 1.2559936e+07]
 [1.0000000e+00 2.9800000e+03 8.8804000e+06]
 [1.0000000e+00 4.3550000e+03 1.8966025e+07]
 [1.0000000e+00 3.1500000e+03 9.9225000e+06]
 [1.0000000e+00 3.0250000e+03 9.1506250e+06]
 [1.0000000e+00 3.4500000e+03 1.1902500e+07]
 [1.0000000e+00 4.4020000e+03 1.9377604e+07]
 [1.0000000e+00 3.4540000e+03 1.1930116e+07]
 [1.0000000e+00 8.9000000e+02 7.9210000e+05]]
[231.16788093 231.19868474 231.22954958 ... 739.2018995  739.45285011
 739.70386176]
Coefficients: [ 0.00000000e+00 -1.75650177e-02  3.05166076e-05]
intercept: 225.93740561055927
the model is y=225.93740561055927+(0.0*x)+(-0.017565017675036532*x^2)

3.4 可視化

4 案例實(shí)現(xiàn)——方法2

4.1 代碼

import matplotlib.pyplot as plt
from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import Pipeline
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error, r2_score
import numpy as np
import pandas as pd
import warnings
?
warnings.filterwarnings(action="ignore", module="sklearn")
?
dataset = pd.read_csv('多項(xiàng)式線性回歸.csv')
X = np.asarray(dataset.get('x'))
y = np.asarray(dataset.get('y'))
?
# 劃分訓(xùn)練集和測(cè)試集
X_train = X[:-2]
X_test = X[-2:]
y_train = y[:-2]
y_test = y[-2:]
?
# fit_intercept 為 True
model1 = Pipeline([('poly', PolynomialFeatures(degree=2)), ('linear', LinearRegression(fit_intercept=True))])
model1 = model1.fit(X_train[:, np.newaxis], y_train)
y_test_pred1 = model1.named_steps['linear'].intercept_ + model1.named_steps['linear'].coef_[1] * X_test
print('while fit_intercept is True:................')
print('Coefficients: ', model1.named_steps['linear'].coef_)
print('Intercept:', model1.named_steps['linear'].intercept_)
print('the model is: y = ', model1.named_steps['linear'].intercept_, ' + ', model1.named_steps['linear'].coef_[1],
? ? ? '* X')
# 均方誤差
print("Mean squared error: %.2f" % mean_squared_error(y_test, y_test_pred1))
# r2 score,0,1之間,越接近1說(shuō)明模型越好,越接近0說(shuō)明模型越差
print('Variance score: %.2f' % r2_score(y_test, y_test_pred1), '\n')
?
# fit_intercept 為 False
model2 = Pipeline([('poly', PolynomialFeatures(degree=2)), ('linear', LinearRegression(fit_intercept=False))])
model2 = model2.fit(X_train[:, np.newaxis], y_train)
y_test_pred2 = model2.named_steps['linear'].coef_[0] + model2.named_steps['linear'].coef_[1] * X_test + \
? ? ? ? ? ? ? ?model2.named_steps['linear'].coef_[2] * X_test * X_test
print('while fit_intercept is False:..........................................')
print('Coefficients: ', model2.named_steps['linear'].coef_)
print('Intercept:', model2.named_steps['linear'].intercept_)
print('the model is: y = ', model2.named_steps['linear'].coef_[0], '+', model2.named_steps['linear'].coef_[1], '* X + ',
? ? ? model2.named_steps['linear'].coef_[2], '* X^2')
# 均方誤差
print("Mean squared error: %.2f" % mean_squared_error(y_test, y_test_pred2))
# r2 score,0,1之間,越接近1說(shuō)明模型越好,越接近0說(shuō)明模型越差
print('Variance score: %.2f' % r2_score(y_test, y_test_pred2), '\n')
?
plt.xlabel('x')
plt.ylabel('y')
# 畫(huà)訓(xùn)練集的散點(diǎn)圖
plt.scatter(X_train, y_train, alpha=0.8, color='black')
# 畫(huà)模型
plt.plot(X_train, model2.named_steps['linear'].coef_[0] + model2.named_steps['linear'].coef_[1] * X_train +
? ? ? ? ?model2.named_steps['linear'].coef_[2] * X_train * X_train, color='red',
? ? ? ? ?linewidth=1)
plt.show()

4.2 結(jié)果

如果不用框架,需要自己手動(dòng)對(duì)數(shù)據(jù)添加高階項(xiàng),有了框架就方便多了。sklearn 使用 Pipeline 函數(shù)簡(jiǎn)化這部分預(yù)處理過(guò)程。

當(dāng) PolynomialFeatures 中的degree=1時(shí),效果和使用 LinearRegression 相同,得到的是一個(gè)線性模型,degree=2時(shí),是二次方程,如果是單變量的就是拋物線,雙變量的就是拋物面。以此類推。

這里有一個(gè) fit_intercept 參數(shù),下面通過(guò)一個(gè)例子看一下它的作用。

當(dāng) fit_intercept 為 True 時(shí),coef_ 中的第一個(gè)值為 0,intercept_ 中的值為實(shí)際的截距。

當(dāng)fit_intercept False 時(shí),coef_ 中的第一個(gè)值為截距,intercept_ 中的值為 0。

如圖,第一部分是 fit_intercept 為 True 時(shí)的結(jié)果,第二部分是 fit_intercept 為 False 時(shí)的結(jié)果。

while fit_intercept is True:................
Coefficients: ?[ 0.00000000e+00 -3.70858180e-04 ?2.78609637e-05]
Intercept: 204.25470490804574
the model is: y = ?204.25470490804574 ?+ ?-0.00037085818009180454 * X
Mean squared error: 26964.95
Variance score: -3.61?
?
while fit_intercept is False:..........................................
Coefficients: ?[ 2.04254705e+02 -3.70858180e-04 ?2.78609637e-05]
Intercept: 0.0
the model is: y = ?204.2547049080572 + -0.0003708581801012066 * X + ?2.7860963722809286e-05 * X^2
Mean squared error: 7147.78
Variance score: -0.22?

4.3 可視化

 到此這篇關(guān)于人工智能-Python實(shí)現(xiàn)多項(xiàng)式回歸的文章就介紹到這了,更多相關(guān)Python實(shí)現(xiàn)多項(xiàng)式回歸內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • Python使用虛擬環(huán)境(安裝下載更新卸載)命令

    Python使用虛擬環(huán)境(安裝下載更新卸載)命令

    這篇文章主要為大家介紹了Python使用虛擬環(huán)境(安裝下載更新卸載)命令,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2023-11-11
  • 詳解Selenium 元素定位和WebDriver常用方法

    詳解Selenium 元素定位和WebDriver常用方法

    這篇文章主要介紹了詳解Selenium 元素定位和WebDriver常用方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2020-12-12
  • 打包Python代碼的常用方法小結(jié)

    打包Python代碼的常用方法小結(jié)

    Python是一門強(qiáng)大的編程語(yǔ)言,但在將Python代碼分享給其他人時(shí),讓他們安裝Python解釋器并運(yùn)行腳本可能有點(diǎn)繁瑣,這時(shí),將Python代碼打包成可執(zhí)行的應(yīng)用程序(.exe)可以大大簡(jiǎn)化這個(gè)過(guò)程,本文將介紹幾種常用的方法,輕松地將Python代碼變成獨(dú)立的可執(zhí)行文件
    2023-11-11
  • 十分鐘利用Python制作屬于你自己的個(gè)性logo

    十分鐘利用Python制作屬于你自己的個(gè)性logo

    這篇文章主要給大家介紹了關(guān)于十分鐘如何利用Python制作屬于你自己的個(gè)性logo的相關(guān)資料,主要利用的是詞云實(shí)現(xiàn)這個(gè)效果,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友下面來(lái)一起看看吧
    2018-05-05
  • django admin添加數(shù)據(jù)自動(dòng)記錄user到表中的實(shí)現(xiàn)方法

    django admin添加數(shù)據(jù)自動(dòng)記錄user到表中的實(shí)現(xiàn)方法

    下面小編就為大家分享一篇django admin添加數(shù)據(jù)自動(dòng)記錄user到表中的實(shí)現(xiàn)方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2018-01-01
  • 使用python模塊plotdigitizer摳取論文圖片中的數(shù)據(jù)實(shí)例詳解

    使用python模塊plotdigitizer摳取論文圖片中的數(shù)據(jù)實(shí)例詳解

    這篇文章主要介紹了使用python模塊plotdigitizer摳取論文圖片中的數(shù)據(jù),本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2021-03-03
  • 8段用于數(shù)據(jù)清洗Python代碼(小結(jié))

    8段用于數(shù)據(jù)清洗Python代碼(小結(jié))

    這篇文章主要介紹了8段用于數(shù)據(jù)清洗Python代碼(小結(jié)),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2019-10-10
  • Python字符串處理實(shí)例詳解

    Python字符串處理實(shí)例詳解

    這篇文章主要介紹了Python字符串處理實(shí)例詳解的相關(guān)資料,需要的朋友可以參考下
    2017-05-05
  • Python文檔生成工具pydoc使用介紹

    Python文檔生成工具pydoc使用介紹

    這篇文章主要介紹了Python文檔生成工具pydoc使用介紹,本文講解了基本用法、獲取幫助的方法、生成的文檔效果圖等內(nèi)容,需要的朋友可以參考下
    2015-06-06
  • 打包FlaskAdmin程序時(shí)關(guān)于static路徑問(wèn)題的解決

    打包FlaskAdmin程序時(shí)關(guān)于static路徑問(wèn)題的解決

    近期寫(xiě)了個(gè)基于Flask-admin的數(shù)據(jù)庫(kù)管理程序,通過(guò)pyinstaller打包,給別人用,經(jīng)過(guò)幾次嘗試,打包的數(shù)據(jù)一直找不到static里面的樣式文件,查閱資料后,最總把問(wèn)題搞定了。寫(xiě)下處理流程,供后來(lái)人參考
    2021-09-09

最新評(píng)論