python的自變量選擇(所有子集回歸,后退法,逐步回歸)
1、為什么需要自變量選擇?
一個(gè)好的回歸模型,不是自變量個(gè)數(shù)越多越好。在建立回歸模型的時(shí)候,選擇自變量的基本指導(dǎo)思想是少而精。丟棄了一些對因變量y有影響的自變量后,所付出的代價(jià)就是估計(jì)量產(chǎn)生了有偏性,但是預(yù)測偏差的方差會(huì)下降。因此,自變量的選擇有重要的實(shí)際意義。
2、自變量選擇的幾個(gè)準(zhǔn)則
(1)自由度調(diào)整復(fù)決定系數(shù)達(dá)到最大


(2)赤池信息量AIC達(dá)到最小
3、所有子集回歸
(1)算法思想
所謂所有子集回歸,就是將總的自變量的所有子集進(jìn)行考慮,查看哪一個(gè)子集是最優(yōu)解。
(2)數(shù)據(jù)集情況

(3)代碼部分
import pandas as pd
import numpy as np
import statsmodels.api as sm
import statsmodels.formula.api as smf
from itertools import combinations
def allziji(df):
list1 = [1,2,3]
n = 18
R2 = []
names = []
#找到所有子集,并依次循環(huán)
for a in range(len(list1)+1):
for b in combinations(list1,a+1):
p = len(list(b))
data1 = pd.concat([df.iloc[:,i-1] for i in list(b) ],axis = 1)#結(jié)合所需因子
name = "y~"+("+".join(data1.columns))#組成公式
data = pd.concat([df['y'],data1],axis=1)#結(jié)合自變量和因變量
result = smf.ols(name,data=data).fit()#建模
#計(jì)算R2a
r2 = (n-1)/(n-p-1)
r2 = r2 * (1-result.rsquared**2)
r2 = 1 - r2
R2.append(r2)
names.append(name)
finall = {"公式":names, "R2a":R2}
data = pd.DataFrame(finall)
print("""根據(jù)自由度調(diào)整復(fù)決定系數(shù)準(zhǔn)則得到:
最優(yōu)子集回歸模型為:{};
其R2a值為:{}""".format(data.iloc[data['R2a'].argmax(),0],data.iloc[data['R2a'].argmax(),1]))
result = smf.ols(name,data=df).fit()#建模
print()
print(result.summary())df = pd.read_csv("data5.csv")
allziji(df)(4)輸出結(jié)果

4、后退法
(1)算法思想
后退法與前進(jìn)法相反,通常先用全部m個(gè)變量建立一個(gè)回歸方程,然后計(jì)算在剔除任意一個(gè)變量后回歸方程所對應(yīng)的AIC統(tǒng)計(jì)量的值,選出最小的AIC值所對應(yīng)的需要剔除的變量,不妨記作x1;然后,建立剔除變量x1后因變量y對剩余m-1個(gè)變量的回歸方程,計(jì)算在該回歸方程中再任意剔除一個(gè)變量后所得回歸方程的AIC值,選出最小的AIC值并確定應(yīng)該剔除的變量;依此類推,直至回歸方程中剩余的p個(gè)變量中再任意剔除一個(gè) AIC值都會(huì)增加,此時(shí)已經(jīng)沒有可以繼續(xù)剔除的自變量,因此包含這p個(gè)變量的回歸方程就是最終確定的方程。
(2)數(shù)據(jù)集情況

(3)代碼部分
import pandas as pd
import numpy as np
import statsmodels.api as sm
import statsmodels.formula.api as smf
def backward(df):
all_bianliang = [i for i in range(0,9)]#備退因子
ceshi = [i for i in range(0,9)]#存放加入單個(gè)因子后的模型
zhengshi = [i for i in range(0,9)]#收集確定因子
data1 = pd.concat([df.iloc[:,i+1] for i in ceshi ],axis = 1)#結(jié)合所需因子
name = 'y~'+'+'.join(data1.columns)
result = smf.ols(name,data=df).fit()#建模
c0 = result.aic #最小aic
delete = []#已刪元素
while(all_bianliang):
aic = []#存放aic
for i in all_bianliang:
ceshi = [i for i in zhengshi]
ceshi.remove(i)
data1 = pd.concat([df.iloc[:,i+1] for i in ceshi ],axis = 1)#結(jié)合所需因子
name = "y~"+("+".join(data1.columns))#組成公式
data = pd.concat([df['y'],data1],axis=1)#結(jié)合自變量和因變量
result = smf.ols(name,data=data).fit()#建模
aic.append(result.aic)#將所有aic存入
if min(aic)>c0:#aic已經(jīng)達(dá)到最小
data1 = pd.concat([df.iloc[:,i+1] for i in zhengshi ],axis = 1)#結(jié)合所需因子
name = "y~"+("+".join(data1.columns))#組成公式
break
else:
zhengshi.remove(all_bianliang[aic.index(min(aic))])#查找最小的aic并將最小的因子存入正式的模型列表當(dāng)中
c0 = min(aic)
delete.append(aic.index(min(aic)))
all_bianliang.remove(all_bianliang[delete[-1]])#刪除已刪因子
name = "y~"+("+".join(data1.columns))#組成公式
print("最優(yōu)模型為:{},其aic為:{}".format(name,c0))
result = smf.ols(name,data=df).fit()#建模
print()
print(result.summary())df = pd.read_csv("data3.1.csv",encoding='gbk')
backward(df)(4)結(jié)果展示

5、逐步回歸
(1)算法思想
逐步回歸的基本思想是有進(jìn)有出。R語言中step()函數(shù)的具體做法是在給定了包含p個(gè)變量的初始模型后,計(jì)算初始模型的AIC值,并在此模型基礎(chǔ)上分別剔除p個(gè)變量和添加剩余m-p個(gè)變量中的任一變量后的AIC值,然后選擇最小的AIC值決定是否添加新變量或剔除已存在初始模型中的變量。如此反復(fù)進(jìn)行,直至既不添加新變量也不剔除模型中已有的變量時(shí)所對應(yīng)的AIC值最小,即可停止計(jì)算,并返回最終結(jié)果。
(2)數(shù)據(jù)集情況

(3)代碼部分
import pandas as pd
import numpy as np
import statsmodels.api as sm
import statsmodels.formula.api as smf
def zhubuhuigui(df):
forward = [i for i in range(0,4)]#備選因子
backward = []#備退因子
ceshi = []#存放加入單個(gè)因子后的模型
zhengshi = []#收集確定因子
delete = []#被刪因子
while forward:
forward_aic = []#前進(jìn)aic
backward_aic = []#后退aic
for i in forward:
ceshi = [j for j in zhengshi]
ceshi.append(i)
data1 = pd.concat([df.iloc[:,i] for i in ceshi ],axis = 1)#結(jié)合所需因子
name = "y~"+("+".join(data1.columns))#組成公式
data = pd.concat([df['y'],data1],axis=1)#結(jié)合自變量和因變量
result = smf.ols(name,data=data).fit()#建模
forward_aic.append(result.aic)#將所有aic存入
for i in backward:
if (len(backward)==1):
pass
else:
ceshi = [j for j in zhengshi]
ceshi.remove(i)
data1 = pd.concat([df.iloc[:,i] for i in ceshi ],axis = 1)#結(jié)合所需因子
name = "y~"+("+".join(data1.columns))#組成公式
data = pd.concat([df['y'],data1],axis=1)#結(jié)合自變量和因變量
result = smf.ols(name,data=data).fit()#建模
backward_aic.append(result.aic)#將所有aic存入
if backward_aic:
if forward_aic:
c0 = min(min(backward_aic),min(forward_aic))
else:
c0 = min(backward_aic)
else:
c0 = min(forward_aic)
if c0 in backward_aic:
zhengshi.remove(backward[backward_aic.index(c0)])
delete.append(backward_aic.index(c0))
backward.remove(backward[delete[-1]])#刪除已刪因子
forward.append(backward[delete[-1]])
else:
zhengshi.append(forward[forward_aic.index(c0)])#查找最小的aic并將最小的因子存入正式的模型列表當(dāng)中
forward.remove(zhengshi[-1])#刪除已有因子
backward.append(zhengshi[-1])
name = "y~"+("+".join(data1.columns))#組成公式
print("最優(yōu)模型為:{},其aic為:{}".format(name,c0))
result = smf.ols(name,data=data).fit()#建模
print()
print(result.summary())df = pd.read_csv("data5.5.csv",encoding='gbk')
zhubuhuigui(df)(4)結(jié)果展示

到此這篇關(guān)于python的自變量選擇(所有子集回歸,后退法,逐步回歸)的文章就介紹到這了,更多相關(guān)python自變量選擇內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
pytorch?collate_fn的基礎(chǔ)與應(yīng)用教程
這篇文章主要給大家介紹了關(guān)于pytorch?collate_fn基礎(chǔ)與應(yīng)用的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2022-02-02
Pandas之缺失數(shù)據(jù)的實(shí)現(xiàn)
這篇文章主要介紹了Pandas之缺失數(shù)據(jù)的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2021-01-01
Python字典中的鍵映射多個(gè)值的方法(列表或者集合)
今天小編就為大家分享一篇Python字典中的鍵映射多個(gè)值的方法(列表或者集合),具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-10-10
python multiprocessing多進(jìn)程變量共享與加鎖的實(shí)現(xiàn)
這篇文章主要介紹了python multiprocessing多進(jìn)程變量共享與加鎖的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2019-10-10
selenium WebDriverWait類等待機(jī)制的實(shí)現(xiàn)
這篇文章主要介紹了selenium WebDriverWait類等待機(jī)制的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-03-03
基于Python3 逗號(hào)代碼 和 字符圖網(wǎng)格(詳談)
下面小編就為大家?guī)硪黄赑ython3 逗號(hào)代碼 和 字符圖網(wǎng)格(詳談)。小編覺得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧2017-06-06
Python正則表達(dá)式實(shí)現(xiàn)簡易計(jì)算器功能示例
這篇文章主要介紹了Python正則表達(dá)式實(shí)現(xiàn)簡易計(jì)算器功能,涉及Python正則判定及數(shù)值計(jì)算相關(guān)操作技巧,需要的朋友可以參考下2019-05-05

