Python數(shù)據(jù)擬合與廣義線性回歸算法學習
機器學習中的預測問題通常分為2類:回歸與分類。
簡單的說回歸就是預測數(shù)值,而分類是給數(shù)據(jù)打上標簽歸類。
本文講述如何用Python進行基本的數(shù)據(jù)擬合,以及如何對擬合結果的誤差進行分析。
本例中使用一個2次函數(shù)加上隨機的擾動來生成500個點,然后嘗試用1、2、100次方的多項式對該數(shù)據(jù)進行擬合。
擬合的目的是使得根據(jù)訓練數(shù)據(jù)能夠擬合出一個多項式函數(shù),這個函數(shù)能夠很好的擬合現(xiàn)有數(shù)據(jù),并且能對未知的數(shù)據(jù)進行預測。
代碼如下:
import matplotlib.pyplot as plt
import numpy as np
import scipy as sp
from scipy.stats import norm
from sklearn.pipeline import Pipeline
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures
from sklearn import linear_model
''''' 數(shù)據(jù)生成 '''
x = np.arange(0, 1, 0.002)
y = norm.rvs(0, size=500, scale=0.1)
y = y + x**2
''''' 均方誤差根 '''
def rmse(y_test, y):
return sp.sqrt(sp.mean((y_test - y) ** 2))
''''' 與均值相比的優(yōu)秀程度,介于[0~1]。0表示不如均值。1表示完美預測.這個版本的實現(xiàn)是參考scikit-learn官網文檔 '''
def R2(y_test, y_true):
return 1 - ((y_test - y_true)**2).sum() / ((y_true - y_true.mean())**2).sum()
''''' 這是Conway&White《機器學習使用案例解析》里的版本 '''
def R22(y_test, y_true):
y_mean = np.array(y_true)
y_mean[:] = y_mean.mean()
return 1 - rmse(y_test, y_true) / rmse(y_mean, y_true)
plt.scatter(x, y, s=5)
degree = [1,2,100]
y_test = []
y_test = np.array(y_test)
for d in degree:
clf = Pipeline([('poly', PolynomialFeatures(degree=d)),
('linear', LinearRegression(fit_intercept=False))])
clf.fit(x[:, np.newaxis], y)
y_test = clf.predict(x[:, np.newaxis])
print(clf.named_steps['linear'].coef_)
print('rmse=%.2f, R2=%.2f, R22=%.2f, clf.score=%.2f' %
(rmse(y_test, y),
R2(y_test, y),
R22(y_test, y),
clf.score(x[:, np.newaxis], y)))
plt.plot(x, y_test, linewidth=2)
plt.grid()
plt.legend(['1','2','100'], loc='upper left')
plt.show()
該程序運行的顯示結果如下:

[-0.16140183 0.99268453]
rmse=0.13, R2=0.82, R22=0.58, clf.score=0.82
[ 0.00934527 -0.03591245 1.03065829]
rmse=0.11, R2=0.88, R22=0.66, clf.score=0.88
[ 6.07130354e-02 -1.02247150e+00 6.66972089e+01 -1.85696012e+04
......
-9.43408707e+12 -9.78954604e+12 -9.99872105e+12 -1.00742526e+13
-1.00303296e+13 -9.88198843e+12 -9.64452002e+12 -9.33298267e+12
-1.00580760e+12]
rmse=0.10, R2=0.89, R22=0.67, clf.score=0.89
顯示出的coef_就是多項式參數(shù)。如1次擬合的結果為
y = 0.99268453x -0.16140183
這里我們要注意這幾點:
1、誤差分析。
做回歸分析,常用的誤差主要有均方誤差根(RMSE)和R-平方(R2)。
RMSE是預測值與真實值的誤差平方根的均值。這種度量方法很流行(Netflix機器學習比賽的評價方法),是一種定量的權衡方法。
R2方法是將預測值跟只使用均值的情況下相比,看能好多少。其區(qū)間通常在(0,1)之間。0表示還不如什么都不預測,直接取均值的情況,而1表示所有預測跟真實結果完美匹配的情況。
R2的計算方法,不同的文獻稍微有不同。如本文中函數(shù)R2是依據(jù)scikit-learn官網文檔實現(xiàn)的,跟clf.score函數(shù)結果一致。
而R22函數(shù)的實現(xiàn)來自Conway的著作《機器學習使用案例解析》,不同在于他用的是2個RMSE的比值來計算R2。
我們看到多項式次數(shù)為1的時候,雖然擬合的不太好,R2也能達到0.82。2次多項式提高到了0.88。而次數(shù)提高到100次,R2也只提高到了0.89。
2、過擬合。
使用100次方多項式做擬合,效果確實是高了一些,然而該模型的據(jù)測能力卻極其差勁。
而且注意看多項式系數(shù),出現(xiàn)了大量的大數(shù)值,甚至達到10的12次方。
這里我們修改代碼,將500個樣本中的最后2個從訓練集中移除。然而在測試中卻仍然測試所有500個樣本。
clf.fit(x[:498, np.newaxis], y[:498])
這樣修改后的多項式擬合結果如下:

[-0.17933531 1.0052037 ]
rmse=0.12, R2=0.85, R22=0.61, clf.score=0.85
[-0.01631935 0.01922011 0.99193521]
rmse=0.10, R2=0.90, R22=0.69, clf.score=0.90
...
rmse=0.21, R2=0.57, R22=0.34, clf.score=0.57
僅僅只是缺少了最后2個訓練樣本,紅線(100次方多項式擬合結果)的預測發(fā)生了劇烈的偏差,R2也急劇下降到0.57。
而反觀1,2次多項式的擬合結果,R2反而略微上升了。
這說明高次多項式過度擬合了訓練數(shù)據(jù),包括其中大量的噪音,導致其完全喪失了對數(shù)據(jù)趨勢的預測能力。前面也看到,100次多項式擬合出的系數(shù)數(shù)值無比巨大。人們自然想到通過在擬合過程中限制這些系數(shù)數(shù)值的大小來避免生成這種畸形的擬合函數(shù)。
其基本原理是將擬合多項式的所有系數(shù)絕對值之和(L1正則化)或者平方和(L2正則化)加入到懲罰模型中,并指定一個懲罰力度因子w,來避免產生這種畸形系數(shù)。
這樣的思想應用在了嶺(Ridge)回歸(使用L2正則化)、Lasso法(使用L1正則化)、彈性網(Elastic net,使用L1+L2正則化)等方法中,都能有效避免過擬合。更多原理可以參考相關資料。
下面以嶺回歸為例看看100次多項式的擬合是否有效。將代碼修改如下:
clf = Pipeline([('poly', PolynomialFeatures(degree=d)),
('linear', linear_model.Ridge ())])
clf.fit(x[:400, np.newaxis], y[:400])
結果如下:

[ 0. 0.75873781]
rmse=0.15, R2=0.78, R22=0.53, clf.score=0.78
[ 0. 0.35936882 0.52392172]
rmse=0.11, R2=0.87, R22=0.64, clf.score=0.87
[ 0.00000000e+00 2.63903249e-01 3.14973328e-01 2.43389461e-01
1.67075328e-01 1.10674280e-01 7.30672237e-02 4.88605804e-02
......
3.70018540e-11 2.93631291e-11 2.32992690e-11 1.84860002e-11
1.46657377e-11]
rmse=0.10, R2=0.90, R22=0.68, clf.score=0.90
可以看到,100次多項式的系數(shù)參數(shù)變得很小。大部分都接近于0.
另外值得注意的是,使用嶺回歸之類的懲罰模型后,1次和2次多項式回歸的R2值可能會稍微低于基本線性回歸。
然而這樣的模型,即使使用100次多項式,在訓練400個樣本,預測500個樣本的情況下不僅有更小的R2誤差,而且還具備優(yōu)秀的預測能力。
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關文章
Pycharm運行程序時,控制臺輸出PyDev?console:starting問題
Pycharm運行程序時,控制臺輸出PyDev?console:starting問題,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2023-05-05
用Python寫腳本,實現(xiàn)完全備份和增量備份的示例
下面小編就為大家分享一篇用Python寫腳本,實現(xiàn)完全備份和增量備份的示例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-04-04
python內置函數(shù)map/filter/reduce詳解
在Python中,map(), filter(), 和 reduce() 是內置的高級函數(shù)(實際是class),用于處理可迭代對象(如列表、元組等)的元素,這篇文章主要介紹了python內置函數(shù)map/filter/reduce的相關知識,需要的朋友可以參考下2024-05-05
pycharm 2020.2.4 pip install Flask 報錯 Error:Non-zero exit co
這篇文章主要介紹了pycharm 2020.2.4 pip install Flask 報錯 Error:Non-zero exit code,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-12-12

